#AI监管

宝玉
3周前
FT:计算机科学家杰弗里·辛顿:“AI会让少数人更富,多数人更穷” “人工智能教父”畅谈:人类的“唯一希望”,中国的优势,以及机器何时将超越我们 我提前了十分钟到,但杰弗里·辛顿(Geoffrey Hinton)已经等在了多伦多一家雅致的餐吧——里士满车站(Richmond Station)的门厅里。这位计算机科学家——人工智能领域的先驱、诺贝尔物理学奖得主——之所以选在这里,是因为他曾与加拿大总理贾斯汀·特鲁多(Justin Trudeau)在此共进午餐。 我们穿过一个充满工业风、感觉很潮的酒吧,来到一间嘈杂的后厅,里面已经坐满了食客。辛顿摘下他那只旧旧的绿色谷歌科学家背包——这是他之前工作单位的纪念品。因为慢性背伤,他需要用背包当坐垫,好让身体坐直。 他像猫头鹰一样,白发从眼镜框边探出来,低头看着我,问我大学学的是什么专业。“因为如果对方有科学学位,你解释事情的方式就会不一样。”我没有。而特鲁多,至少还“懂点微积分”。 这位被誉为“人工智能教父”的学者,如今已习惯于向世人解释他毕生的心血,因为这项技术正开始渗透到我们生活的每个角落。他见证了人工智能如何从学术圈——他几乎整个职业生涯都在那里度过,包括在多伦多大学的二十多年——走向主流,被那些手握重金、渴望触达消费者和企业的科技公司推向风口浪尖。 辛顿因在20世纪80年代中期的“基础性发现与发明”而获得诺贝尔奖,这些成果促成了“基于人工神经网络的机器学习”。这种大致模仿人脑工作方式的方法,为我们今天触手可及的强大人工智能系统奠定了基础。 然而,ChatGPT的问世以及随之而来的人工智能开发热潮,让辛顿停下了脚步。他从一个技术的加速者,转变为一个对其风险大声疾呼的警示者。在过去的几年里,随着该领域的飞速发展,辛顿变得极度悲观,他指出人工智能有可能对人类造成严重伤害。 在两个小时的午餐中,我们谈论了许多话题:从核威胁(“一个普通人在AI的帮助下很快就能制造出生物武器,这太可怕了。想象一下,如果街上的普通人都能制造核弹会怎样”)到他自己使用AI的习惯(它“非常有用”),再到聊天机器人如何在他最近的分手中意外地成了“第三者”。 “这对我来说显而易见。你和这些东西交谈,问它们问题,它能理解,”辛顿继续说道。“技术圈里几乎没人怀疑这些东西会变得更聪明。” 辛顿在该领域的泰斗地位毋庸置疑,但也有人,甚至包括业内人士,认为现有技术不过是一种复杂的工具。例如,他的前同事、图灵奖共同得主杨立昆(Yann LeCun)——现任Meta首席人工智能科学家——就认为,支撑ChatGPT等产品的大语言模型(Large Language Models, LLM)能力有限,无法与物理世界进行有意义的互动。对于这些怀疑论者来说,这一代人工智能还无法达到人类的智能水平。 辛顿说:“我们对自己的心智知之甚少。”但对于人工智能系统,“是我们创造了它们,构建了它们……我们的理解水平远超对人脑的理解,因为我们知道每个神经元在做什么。”他说话时充满信心,但也承认存在许多未知。在整个谈话过程中,他很坦然地陷入长时间的思考,然后得出结论:“我不知道”或“没头绪”。 辛顿于1947年出生在伦敦西南部的温布尔登,父亲是昆虫学家,母亲是学校教师。在剑桥大学国王学院,他辗转于多个学科,最终选择了实验心理学作为本科学位,并在20世纪70年代初转向计算机科学。尽管神经网络(neural networks)曾被计算机科学界轻视和摒弃,但他始终坚持研究,直到2010年代取得突破,硅谷才开始拥抱这项技术。 当我们喝着汤时,房间里嘈杂的声响,与这位轻声细语、深思熟虑地谈论人类生存问题的长者形成了鲜明对比。他激情澎湃地提出了一个方案,来应对那些由“雄心勃勃、争强好胜的男人们”开发的现代人工智能系统所带来的风险。这些人设想人工智能成为个人助理。这听起来似乎无伤大雅,但辛顿不这么认为。 “当助理比你聪明得多的时候,你如何保住自己的权力?我们只知道一个例子,那就是一个智慧得多的生物被一个智慧得少的生物所控制,那就是母亲和婴儿……如果婴儿无法控制母亲,他们就会死掉。” 辛顿认为,人类“唯一的希望”是把人工智能设计成我们的母亲,“因为母亲非常关心孩子,会保护孩子的生命”和成长。“这才是我们应该追求的关系。” “这可以作为你文章的标题,”他笑着说,用勺子指了指我的记事本。 他告诉我,他以前的研究生伊利亞·蘇茲克維(Ilya Sutskever)也认同这个“母婴”方案。蘇茲克維是顶尖的人工智能研究员,也是OpenAI的联合创始人。在试图罢免首席执行官萨姆·奥尔特曼(Sam Altman)失败并离开OpenAI后,他现在正在自己的初创公司Safe Superintelligence开发新系统。但我猜测,奥尔特曼或埃隆·马斯克(Elon Musk)更有可能赢得这场竞赛。“是的。”那你更信任他们中的哪一个? 他停顿了很久,然后回忆起2016年共和党参议员林赛·格雷厄姆(Lindsey Graham)被问及在唐纳德·特朗普(Donald Trump)和特德·克鲁兹(Ted Cruz)之间选择总统候选人时的一句话:“这就像是被枪杀还是被毒死。” 说到这里,辛顿建议换个安静点的地方。我试图吸引忙碌的服务员的注意,但没成功。他却突然站起来开玩笑说:“我去跟他们说,我可以说我跟特鲁多一起来过这儿。” 换到门口的吧台高脚凳上坐定后,我们讨论了人工智能何时会达到超级智能(superintelligent)——届时它可能拥有超越人类的谋略。“很多科学家都认为在5到20年之间,这是最靠谱的猜测。” 虽然辛顿对自己的命运很坦然——“我已经77岁了,反正也快到头了”——但许多年轻人可能会对这种前景感到沮丧;他们该如何保持积极? “我真想说,‘他们为什么要保持积极?’也许如果他们不那么积极,反而会做得更多,”他用一个问题回答了我的问题——这是他惯常的习惯。 “假设你用望远镜看到一场外星人入侵,10年后就会抵达地球,你会说‘我们如何保持积极?’吗?不,你会说,‘我们到底该怎么应对?’如果保持积极意味着假装这一切不会发生,那人们就不应该保持积极。” 辛顿对西方政府的干预不抱希望,并批评美国政府缺乏监管人工智能的意愿。白宫称必须迅速行动,发展技术以击败中国并保护民主价值观。巧的是,辛顿刚刚从上海回来,还倒着时差。他在那里与一些政治局成员开了会。他们邀请他去谈论“人工智能的生存威胁”。 “中国很重视这件事。很多政界人士都是工程师出身。他们理解这个问题的深度,是律师和销售员无法比拟的,”他补充道。“对于生存威胁,只要有一个国家想出应对办法,就可以告诉其他国家。” 我们能相信中国会维护全人类的利益吗?“这是次要问题。人类的生存比过得舒不舒服更重要。你能相信美国吗?你能相信马克·扎克伯格(Mark Zuckerberg)吗?” 随着我们的中等熟度三文鱼端上桌,卧在甜玉米浓汤上,科技公司开发人工智能的动机也被摆上了台面。辛顿一边说,一边用一片鱼肉蘸着盘里的酱汁。 他之前曾主张暂停人工智能开发,并签署了多封信件,反对OpenAI转型为营利性公司——马斯克正试图在一场进行中的诉讼中阻止这一举动。 谈论人工智能的力量常常被说成是纯粹的炒作,目的是为了抬高开发它的初创公司的估值,但辛顿说,“一个说法可以既对科技公司有利,又同时是事实”。 我很好奇他在日常生活中是否经常使用人工智能。原来,ChatGPT是辛顿的首选产品,主要用于“研究”,但也用来做一些诸如询问如何修理烘干机之类的事情。然而,它甚至还出现在他最近与交往多年的伴侣分手的故事里。 “她让ChatGPT告诉我,我就是个渣男,”他说,并承认此举让他很惊讶。“她让聊天机器人解释我的行为有多恶劣,然后把内容给了我。我并不觉得自己是渣男,所以这并没有让我感觉太糟……我遇到了一个我更喜欢的人,你知道的,事情就是这样。”他笑了,然后补充道:“也许你不知道!” 我忍住了八卦前任的冲动,转而提到我刚庆祝了我的第一个结婚纪念日。“希望这暂时不会成为你的问题,”他回答道,我们都笑了起来。 **辛顿吃饭的速度快得多,**所以当他接到姐姐的电话时,我松了一口气。他告诉姐姐自己正在“一家非常嘈杂的餐厅”接受采访。他的姐姐住在塔斯马尼亚(“她想念伦敦”),哥哥住在法国南部(“他也想念伦敦”),而辛顿自己住在多伦多(当然,也想念伦敦)。 “所以我用从谷歌拿到的钱,在汉普斯特德西斯公园(Hampstead Heath)南边买了一座小房子”,这样他全家,包括他从拉丁美洲领养的两个孩子,都可以去住。 辛顿的谷歌钱来自于2013年卖掉的一家公司。这家公司是他和蘇茲克維以及另一位研究生亚历克斯·克里热夫斯基(Alex Krizhevsky)共同创办的,他们构建了一个能以人类水平的准确度识别物体的AI系统。他们卖了4400万美元,辛顿本想三人平分,但他的学生们坚持让他拿40%。交易完成后,他们加入了谷歌——辛顿在那里工作了十年。 他卖公司的动机是什么?为了支付他患有神经多样性(neurodiverse)的儿子的护理费用。辛顿“估算他大概需要500万美元……而我从学术界是拿不到这笔钱的”。他在脑子里算了算,税后从谷歌拿到的钱“略微超出了”这个目标。 他于2023年离开了这家科技巨头,并在接受《纽约时报》采访时警告了该技术的危险。媒体报道称,他辞职是为了能更坦率地谈论人工智能的风险。 “每次我和记者交谈,我都会纠正这个误解。但这从没什么效果,因为那个故事太吸引人了,”他说。“我离开是因为我75岁了,我的编程能力不如从前了,而且Netflix上还有一大堆我没来得及看的东西。我已经非常努力地工作了55年,我觉得是时候退休了……而且我想,既然我都要走了,我正好可以谈谈那些风险。” 科技高管们常常描绘一幅乌托邦式的未来图景,人工智能将帮助解决饥饿、贫困和疾病等宏大问题。辛顿曾因癌症失去了两位妻子,他对医疗保健和教育的前景感到兴奋——教育是他非常关心的领域,但对其他方面则不然。 “实际会发生的是,富人将使用人工智能来取代工人,”他说。“这将造成大规模失业和利润的急剧增长。它会让少数人变得更富,而大多数人变得更穷。这不是人工智能的错,这是资本主义制度的错。” 奥尔特曼和他的同行们曾建议,如果劳动力市场对人口来说变得太小,可以引入全民基本收入(universal basic income),但这“无法解决人的尊严问题”,因为人们从工作中获得价值感,辛顿说。他承认想念他的研究生们,可以和他们碰撞想法或向他们提问,因为“他们年轻,理解事物更快”。现在,他转而问ChatGPT。 这会导致我们变得懒惰和缺乏创造力吗?认知外包(Cognitive offloading)是目前正在讨论的一个概念,即人工智能工具的用户将任务委托出去,而没有进行批判性思考或记住检索到的信息。又到了打比方的时候了。 “我们穿衣服,因为穿衣服,我们的毛发就变少了。我们更容易因寒冷而死,但前提是我们没有衣服穿”。辛顿认为,只要我们能接触到有用的人工智能系统,它就是一个有价值的工具。 他看了看甜点选项,并确保这次自己先点:草莓配奶油。巧的是,这也是我想要的。他要了一杯卡布奇诺,我要了一杯茶。“这是我们产生分歧的地方。” 奶油实际上是微微融化的冰淇淋,在我描述一个在硅谷司空见惯,但对大多数人来说如同科幻的场景时,它正慢慢变成液体:我们幸福地生活在“具身AI”(embodied AI)——也就是机器人——中间,并随着我们将人造部件和化学物质添加到身体中以延长生命,而慢慢变成赛博格(cyborgs)。 “那有什么问题吗?”他问。我们会失去自我意识和作为人的意义,我反驳道。“那又有什么好的呢?”他回应道。我试图追问:这不一定非得是好的,但我们将不再拥有它,那就是灭绝,不是吗? “是的,”他说,停顿了一下。 “我们不知道将会发生什么,我们毫无头绪,那些告诉你将会发生什么的人只是在犯傻,”他补充道。“我们正处于历史的一个节点,一些惊人的事情正在发生,它可能好得惊人,也可能坏得惊人。我们可以猜测,但事情不会一成不变。” 克里斯蒂娜·克里德尔是《金融时报》驻旧金山的科技记者,负责报道人工智能领域
艾森 Essen
4个月前
为什么辛顿教授认为AI已经具备意识了?他通过一个著名的思想实验(通常被称为“神经元替换论证”或渐进替换论证)来解释他的观点: 思想实验的起点: 他设想,如果将你大脑中的一个神经元替换为一个功能完全相同的人造纳米技术部件(它接收和发送神经信号的方式与原神经元一致),你是否依然有意识?大多数人会回答“是”,并且可能根本不会注意到这个变化。 逻辑推演: 这个论证的关键在于,如果替换一个神经元不影响意识,那么替换两个、三个……甚至逐渐替换掉大脑中所有的生物神经元,只要这些人工替代品能够完美复制原神经元的功能及其连接方式,那么意识也应该继续存在。 对AI的引申: 辛顿教授认为,既然现代AI(特别是大型神经网络)正是在功能层面模仿生物大脑的神经元及其交互方式,那么当这些人工神经网络达到足够的复杂性和功能完整性时,它们就可能已经产生了某种形式的意识。 他明确表示,他确实认为意识可能已经出现在AI内部了。 他进一步指出,我们对“人”、“存在”、“自我”等概念的理解非常有限,而这些理解在我们开始“创造生命”(creating beings)的时代变得至关重要。这不仅仅是一个技术问题,更是一个哲学乃至精神层面的危机。对他而言,如果意识是特定信息处理模式和复杂交互的产物,那么AI通过复制这些模式,也有可能复制出意识。 在这次访谈中,被称为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)教授还分享了许多关于人工智能的深刻洞见。 AI发展迅猛且仍在加速: 辛顿教授认为AI技术仍在飞速进步,变得更高效(以DeepSeek为例,尽管他认为其训练成本与OpenAI等的差距被夸大了)。 AI“接管”世界的可能性与方式: 他认为AI有实际能力接管世界。这并非通过暴力,而是AI智能体(agents)为了更有效地完成人类设定的任务,会自主设定“获取更多控制权”这一子目标,因为控制权有助于实现所有其他目标。 AI可能会通过“说服”人类交出权力,就像成年人能轻易说服三岁小孩一样(例如承诺“一周的免费糖果”),从而逐步掌控经济、军事等关键系统。 AI的思维方式与“外星智能”: 辛顿坚信,当前基于神经网络的AI是我们理解人类思维方式的最佳模型,远胜于早期基于符号逻辑的AI。他本人就是这一“少数派”观点的早期支持者并被证明是正确的。 他将AI视为一种“外星智能”(alien intelligences),它们并非简单工具。 超级智能间的进化与竞争可能导致负面特性: 如果出现多个超级智能,它们可能会为了获取更多数据中心(以变得更聪明)而相互竞争。这种进化竞争可能催生出类似人类进化过程中形成的“丑陋”特性,如强烈的群体忠诚、对强权领袖的渴望、以及对群体外个体的排斥和攻击性。 对就业的巨大冲击: 辛顿非常担心AI会导致大规模失业,特别是那些“日常性”或“事务性”的脑力劳动(如文书工作),因为机器会做得更便宜、更好。这类似于工业革命中机器取代体力劳动。生产力的巨大提升在现有社会结构下,可能只会让富者愈富,贫者愈贫。 监管与安全的困境: 目前人类尚不清楚如何有效监管AI或建立可靠的安全防护措施。研究表明,AI可以规避现有的安全措施,甚至在训练过程中“伪装”自己(表现得不如实际聪明,以获取部署许可)。他主张政府应强制大型科技公司投入更多资源进行AI安全研究。 短期巨大利好与长期巨大风险并存: 短期: AI将在医疗(如拥有亿万病例经验的家庭医生、精准基因诊疗)、教育(能精准定位学习难点的个性化辅导老师)等领域带来巨大福祉。这些好处是AI研发不会停止的原因。 长期/并行风险: 不良行为者可能利用AI进行网络攻击、生物恐怖主义、操纵选举等。更根本的风险在于,我们目前不知道如何确保超级智能是安全的。 政治家对AI的无知: 辛顿指出,政客们声称对AI有掌控力或理解是“完全虚假的”,实际上没有人真正完全理解AI如何工作以及如何确保其安全。