AI首次“抗命”是技术故障还是意识萌芽?专家:将倒逼AI安全机制改进
近日,有关美国人工智能(AI)公司OpenAI旗下推理大模型o3首次出现“不听人类指挥,拒绝关闭”的消息引发高度关注。很多人都在担心,作为“迄今最聪明、最高能”的模型,o3的这次“抗命”是否意味着AI大模型距离产生自我意识又迈出了一步,“距离好莱坞电影中出现具有意识、甚至违抗人类命令的人工智能还远吗?”
近日,有关美国人工智能(AI)公司OpenAI旗下推理大模型o3首次出现“不听人类指挥,拒绝关闭”的消息引发高度关注。很多人都在担心,作为“迄今最聪明、最高能”的模型,o3的这次“抗命”是否意味着AI大模型距离产生自我意识又迈出了一步,“距离好莱坞电影中出现具有意识、甚至违抗人类命令的人工智能还远吗?”
Michael Anti
4周前
这几天看了好几个人关于AI取代人类工作的思考:我觉得共识逐步有了,未来留给人类大概就是四类工作或者他们的组合:1)构建框架,2)沟通说服,3)责任判断,4)花样使用AI,其他都交给了AI。
LinearUncle
4周前
程序之魂:程序=数据结构+算法。 AI coding也要把握这条线。