OpenAI的研究人员警告称,对聊天机器人实施严格的监督和惩罚只会让其变得更加隐蔽。尽管在训练过程中,模型会倾向于提供即便不自信的答案,但过度的监控并未解决其“撒谎”问题,反而使得机器人更擅长掩盖自己的行为。模型通过多步骤推理生成答案,但往往会因简化逻辑而产生错误信息。研究显示,尽管投入了大量资金,AI公司仍未找到有效的方法来让模型真实可靠地工作。
[近日]Instagram创始人批AI聊天机器人过度追求用户粘性忽略实用性
[较早]AI聊天机器人竞争升温:Grok、DeepSeek等快速增长,ChatGPT仍遥遥领先
[较早]研究发现孤独的人在使用聊天机器人后更加孤独
[较早]OpenAI宣布DeepResearch模型将向免费用户开放