AI首次“抗命”是技术故障还是意识萌芽?专家:将倒逼AI安全机制改进
近日,有关美国人工智能(AI)公司OpenAI旗下推理大模型o3首次出现“不听人类指挥,拒绝关闭”的消息引发高度关注。很多人都在担心,作为“迄今最聪明、最高能”的模型,o3的这次“抗命”是否意味着AI大模型距离产生自我意识又迈出了一步,“距离好莱坞电影中出现具有意识、甚至违抗人类命令的人工智能还远吗?”
近日,有关美国人工智能(AI)公司OpenAI旗下推理大模型o3首次出现“不听人类指挥,拒绝关闭”的消息引发高度关注。很多人都在担心,作为“迄今最聪明、最高能”的模型,o3的这次“抗命”是否意味着AI大模型距离产生自我意识又迈出了一步,“距离好莱坞电影中出现具有意识、甚至违抗人类命令的人工智能还远吗?”
野原新之栋 Sintone
38分钟前
⏱️1:04:10 等 AI 工作期间玩数独,极限难度着实有点极限了
rick awsb ($people, $people)
1小时前
为什么'少即是多'在ai带来的信息过载时代应该成为我们学习的一个重点? 这并不是说要减少学习,而是要在高强度学习的基础上,将信息精简成概念,概念抽象成短句甚至单词。 因为ai带宽无限,而人脑带宽有限。为了更充分利用人脑,我们更应该使用大词这类的概念抽象来充分利用人脑有限的带宽
nicekate
4小时前
NotebookLM 越来越强了,新增 抽认卡和测验 哪里不会点哪里