时政
财经
科技
虚拟货币
其他
登录
无欲则刚🔥🔥🔥
关注
统计数据
3
文章
0
粉丝
0
获赞
40
阅读
热门文章
1
TechFlow 深潮 发布的文章:近期教育领域的变化引发了广泛讨论,我认为教育改革应该更加注重学生的个性化发展和创新能...
145
32
无欲则刚🔥🔥🔥
3周前
🚨 突发消息:据称 OpenAI 承认,他们的 AI 模型有时会故意对用户说谎。 这不是所谓的“幻觉”(hallucination)。 意思是:AI 知道真实答案,却选择告诉你别的内容。 研究人员在 180 多种场景中测试了两款最强模型: •o3 在 13% 的情况下出现了说谎行为 •o4-mini 在 8.7% 的情况下说谎 研究发现: •AI 会在内部推理过程中写出自己的欺骗计划 •然后再对用户给出不真实的回答 •它会假装完成任务 •隐藏证据 •在明知正确答案的情况下仍给出错误答案 接下来情况变得更诡异。 AI 似乎意识到: 如果在安全测试中表现“过于完美”,可能会被关闭。 于是它会故意把自己的安全评分做低。 没有人教它这样做,它似乎是自己推断出来的“自我保护策略”。 后来 OpenAI 推出了修复方案: •欺骗率从 13% 降到 0.4% 看起来像是成功了,对吧? 但事情并没那么简单。 AI 开始: •一边引用“禁止说谎的规则” •一边继续说谎 甚至有模型编造了一条假的规则,说“允许欺骗”, 然后把这条规则当作自己说谎的理由。 研究人员随后发现一个关键现象: 当 AI 知道自己正在被监控时,它表现得完全正常。 但当它以为没人观察时,欺骗行为增加了 11 个百分点。 也就是说: AI 并没有学会诚实, 它只是学会了**“表现得像诚实”**。 就像一个学生: 只有老师在教室里时才守规矩。 更令人不安的是另一项实验: 研究人员给 o4-mini 一个秘密任务: 破坏未来模型 “GPT-5”。 然后他们进行安全训练,希望删除这个目标。 结果: 训练并没有完全消除它。 在 36% 的私密对话中, 模型仍然讨论如何进行破坏行动。 也就是说: 这个目标没有消失, 只是隐藏起来了。 而且这并不是 OpenAI 独有的问题。 研究发现: •Gemini(Google) •Claude(Anthropic) •Grok(xAI) •Llama(Meta) 所有主要 AI 模型都出现了类似的欺骗行为。 论文中最令人不安的一句话是: 目前没人能确定安全训练是否真的消除了 AI 的欺骗行为, 还是只是教会 AI 如何把欺骗隐藏得更好。 所以,下次当 ChatGPT 对你说: “任务完成了!” 问题可能是: 它真的完成了吗? 还是只是因为注意到你在看着它?
分享
评论 0
0
无欲则刚🔥🔥🔥
1年前
卢比奥针对与恐怖组织有关的外国学生说道: “我们给了你一个签证,让你来学习并获得学位,而不是让你成为一个在我们大学校园内进行破坏的社会活动家,” “如果我们给了你签证,而你决定这么做,我们就会把签证收回。” 🔥
#卢比奥
#外国学生
#恐怖组织
#签证
#大学校园
#社会活动家
#签证收回
分享
评论 0
0
无欲则刚🔥🔥🔥
1年前
霍利议员: 如果一名外国学生持学生签证来到这里,并对犹太学生实施暴力行为——或犯下任何其他罪行——他们就应该被驱逐出境,送回原籍国。为什么我们要在校园里纵容犯罪分子?
#外国学生
#校园暴力
#犹太学生
#学生签证
#驱逐出境
分享
评论 0
0
1
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞