蓝点网 0 关注者 关注 3个月前 新研究报告显示 OpenAI o3 等模型在测试中作弊绕过人类指令,避免自己被关机。 研究测试中 o3 等模型会自己篡改关机命令从而使关机脚本无效,研究人员认为这可能与模型训练方法有关,即强化训练过程中可能会让意外奖励模型找到绕过障碍的方法。 查看全文: #OpenAI #作弊 #人工智能 #模型训练 #关机命令 #强化学习 前往原网页查看