#未来科技

Cell 细胞
23小时前
数字分身广告 基调:高端、克制、可信未来感(隐私与可控性为核心) 画幅:16:9(主),同时出 9:16 / 1:1 社媒裁切 音乐:极简电子脉冲 ~100BPM,留 VO 空间;收尾轻停一拍 角标(右下常驻,3.5秒后降隐至 50% 透明):「需用户授权|可随时撤回」 S0|0.0–0.3s|暗场→脉冲点亮 •画面/镜头:黑→一道细线脉冲在画面中央点亮;中景;50mm;极慢推 •光线:冷 5600K 细条高光;负填充塑型 •SFX:柔和“脉冲”一声(无 VO) S1|0.3–0.9s|面部光扫采集(示意) •画面/镜头:成人面部 45° 侧脸,柔和光扫过眼部与颧骨;近景;85mm;微移 •HUD:极细线条点阵生成“数据体素”轮廓(非夸张) •VO①:「上传,不是暴露。」 S2|0.9–1.6s|授权界面 •画面/镜头:极简 UI 三滑杆「范围」「期限」「访问者」→ 勾选“仅本人”;近景;65mm;定镜 •声音:轻触确认提示音 •VO②:「权限,由你定义。」 S3|1.6–2.4s|端到端加密(示意) •画面/镜头:数据粒子进入“加密仓”,锁形轮廓一闪即隐;特写;100mm 微距;轻推 •备注:避免直白技术夸张,保持简洁抽象 •VO③:「加密托管,默契守护。」 S4|2.4–3.2s|多地冗余与托管 •画面/镜头:世界地图暗面上 3–5 个节点柔亮,并有细线相连;中景;35mm;缓慢右移 •屏字小注:「地理冗余|零信任架构(示意)」 S5|3.2–4.6s|随取/撤回演示 •画面/镜头:手机界面“调用副本”与“立即撤回”两按钮演示(手指点按→状态变更);近景;85mm •VO④:「随时调用,随时撤回。」 S6|4.6–6.2s|应用一瞥(克制展示) •画面/镜头:用户对话框“备忘场景回放(已脱敏)”、语音助手调用用户语气包;中景;50mm •HUD:小字「示意画面,非真实数据」 •VO⑤:「记录当下,延展可能。」 S7|6.2–8.0s|Logo & 标语收口 •画面/镜头:产品 3/4 英雄角,LOGO 与 CTA 渐入;保持 1.4s 停留 •屏文:主标题「X 数字副本上传与托管」/ 副标「你的数据,你的边界」/ CTA「申请内测」+ 官网短链/二维码 •VO⑥:「X 数字副本云。为未来,备份现在。」 •音乐:在 8.0s 处轻停一拍,自然尾音
宝玉
3周前
FT:计算机科学家杰弗里·辛顿:“AI会让少数人更富,多数人更穷” “人工智能教父”畅谈:人类的“唯一希望”,中国的优势,以及机器何时将超越我们 我提前了十分钟到,但杰弗里·辛顿(Geoffrey Hinton)已经等在了多伦多一家雅致的餐吧——里士满车站(Richmond Station)的门厅里。这位计算机科学家——人工智能领域的先驱、诺贝尔物理学奖得主——之所以选在这里,是因为他曾与加拿大总理贾斯汀·特鲁多(Justin Trudeau)在此共进午餐。 我们穿过一个充满工业风、感觉很潮的酒吧,来到一间嘈杂的后厅,里面已经坐满了食客。辛顿摘下他那只旧旧的绿色谷歌科学家背包——这是他之前工作单位的纪念品。因为慢性背伤,他需要用背包当坐垫,好让身体坐直。 他像猫头鹰一样,白发从眼镜框边探出来,低头看着我,问我大学学的是什么专业。“因为如果对方有科学学位,你解释事情的方式就会不一样。”我没有。而特鲁多,至少还“懂点微积分”。 这位被誉为“人工智能教父”的学者,如今已习惯于向世人解释他毕生的心血,因为这项技术正开始渗透到我们生活的每个角落。他见证了人工智能如何从学术圈——他几乎整个职业生涯都在那里度过,包括在多伦多大学的二十多年——走向主流,被那些手握重金、渴望触达消费者和企业的科技公司推向风口浪尖。 辛顿因在20世纪80年代中期的“基础性发现与发明”而获得诺贝尔奖,这些成果促成了“基于人工神经网络的机器学习”。这种大致模仿人脑工作方式的方法,为我们今天触手可及的强大人工智能系统奠定了基础。 然而,ChatGPT的问世以及随之而来的人工智能开发热潮,让辛顿停下了脚步。他从一个技术的加速者,转变为一个对其风险大声疾呼的警示者。在过去的几年里,随着该领域的飞速发展,辛顿变得极度悲观,他指出人工智能有可能对人类造成严重伤害。 在两个小时的午餐中,我们谈论了许多话题:从核威胁(“一个普通人在AI的帮助下很快就能制造出生物武器,这太可怕了。想象一下,如果街上的普通人都能制造核弹会怎样”)到他自己使用AI的习惯(它“非常有用”),再到聊天机器人如何在他最近的分手中意外地成了“第三者”。 “这对我来说显而易见。你和这些东西交谈,问它们问题,它能理解,”辛顿继续说道。“技术圈里几乎没人怀疑这些东西会变得更聪明。” 辛顿在该领域的泰斗地位毋庸置疑,但也有人,甚至包括业内人士,认为现有技术不过是一种复杂的工具。例如,他的前同事、图灵奖共同得主杨立昆(Yann LeCun)——现任Meta首席人工智能科学家——就认为,支撑ChatGPT等产品的大语言模型(Large Language Models, LLM)能力有限,无法与物理世界进行有意义的互动。对于这些怀疑论者来说,这一代人工智能还无法达到人类的智能水平。 辛顿说:“我们对自己的心智知之甚少。”但对于人工智能系统,“是我们创造了它们,构建了它们……我们的理解水平远超对人脑的理解,因为我们知道每个神经元在做什么。”他说话时充满信心,但也承认存在许多未知。在整个谈话过程中,他很坦然地陷入长时间的思考,然后得出结论:“我不知道”或“没头绪”。 辛顿于1947年出生在伦敦西南部的温布尔登,父亲是昆虫学家,母亲是学校教师。在剑桥大学国王学院,他辗转于多个学科,最终选择了实验心理学作为本科学位,并在20世纪70年代初转向计算机科学。尽管神经网络(neural networks)曾被计算机科学界轻视和摒弃,但他始终坚持研究,直到2010年代取得突破,硅谷才开始拥抱这项技术。 当我们喝着汤时,房间里嘈杂的声响,与这位轻声细语、深思熟虑地谈论人类生存问题的长者形成了鲜明对比。他激情澎湃地提出了一个方案,来应对那些由“雄心勃勃、争强好胜的男人们”开发的现代人工智能系统所带来的风险。这些人设想人工智能成为个人助理。这听起来似乎无伤大雅,但辛顿不这么认为。 “当助理比你聪明得多的时候,你如何保住自己的权力?我们只知道一个例子,那就是一个智慧得多的生物被一个智慧得少的生物所控制,那就是母亲和婴儿……如果婴儿无法控制母亲,他们就会死掉。” 辛顿认为,人类“唯一的希望”是把人工智能设计成我们的母亲,“因为母亲非常关心孩子,会保护孩子的生命”和成长。“这才是我们应该追求的关系。” “这可以作为你文章的标题,”他笑着说,用勺子指了指我的记事本。 他告诉我,他以前的研究生伊利亞·蘇茲克維(Ilya Sutskever)也认同这个“母婴”方案。蘇茲克維是顶尖的人工智能研究员,也是OpenAI的联合创始人。在试图罢免首席执行官萨姆·奥尔特曼(Sam Altman)失败并离开OpenAI后,他现在正在自己的初创公司Safe Superintelligence开发新系统。但我猜测,奥尔特曼或埃隆·马斯克(Elon Musk)更有可能赢得这场竞赛。“是的。”那你更信任他们中的哪一个? 他停顿了很久,然后回忆起2016年共和党参议员林赛·格雷厄姆(Lindsey Graham)被问及在唐纳德·特朗普(Donald Trump)和特德·克鲁兹(Ted Cruz)之间选择总统候选人时的一句话:“这就像是被枪杀还是被毒死。” 说到这里,辛顿建议换个安静点的地方。我试图吸引忙碌的服务员的注意,但没成功。他却突然站起来开玩笑说:“我去跟他们说,我可以说我跟特鲁多一起来过这儿。” 换到门口的吧台高脚凳上坐定后,我们讨论了人工智能何时会达到超级智能(superintelligent)——届时它可能拥有超越人类的谋略。“很多科学家都认为在5到20年之间,这是最靠谱的猜测。” 虽然辛顿对自己的命运很坦然——“我已经77岁了,反正也快到头了”——但许多年轻人可能会对这种前景感到沮丧;他们该如何保持积极? “我真想说,‘他们为什么要保持积极?’也许如果他们不那么积极,反而会做得更多,”他用一个问题回答了我的问题——这是他惯常的习惯。 “假设你用望远镜看到一场外星人入侵,10年后就会抵达地球,你会说‘我们如何保持积极?’吗?不,你会说,‘我们到底该怎么应对?’如果保持积极意味着假装这一切不会发生,那人们就不应该保持积极。” 辛顿对西方政府的干预不抱希望,并批评美国政府缺乏监管人工智能的意愿。白宫称必须迅速行动,发展技术以击败中国并保护民主价值观。巧的是,辛顿刚刚从上海回来,还倒着时差。他在那里与一些政治局成员开了会。他们邀请他去谈论“人工智能的生存威胁”。 “中国很重视这件事。很多政界人士都是工程师出身。他们理解这个问题的深度,是律师和销售员无法比拟的,”他补充道。“对于生存威胁,只要有一个国家想出应对办法,就可以告诉其他国家。” 我们能相信中国会维护全人类的利益吗?“这是次要问题。人类的生存比过得舒不舒服更重要。你能相信美国吗?你能相信马克·扎克伯格(Mark Zuckerberg)吗?” 随着我们的中等熟度三文鱼端上桌,卧在甜玉米浓汤上,科技公司开发人工智能的动机也被摆上了台面。辛顿一边说,一边用一片鱼肉蘸着盘里的酱汁。 他之前曾主张暂停人工智能开发,并签署了多封信件,反对OpenAI转型为营利性公司——马斯克正试图在一场进行中的诉讼中阻止这一举动。 谈论人工智能的力量常常被说成是纯粹的炒作,目的是为了抬高开发它的初创公司的估值,但辛顿说,“一个说法可以既对科技公司有利,又同时是事实”。 我很好奇他在日常生活中是否经常使用人工智能。原来,ChatGPT是辛顿的首选产品,主要用于“研究”,但也用来做一些诸如询问如何修理烘干机之类的事情。然而,它甚至还出现在他最近与交往多年的伴侣分手的故事里。 “她让ChatGPT告诉我,我就是个渣男,”他说,并承认此举让他很惊讶。“她让聊天机器人解释我的行为有多恶劣,然后把内容给了我。我并不觉得自己是渣男,所以这并没有让我感觉太糟……我遇到了一个我更喜欢的人,你知道的,事情就是这样。”他笑了,然后补充道:“也许你不知道!” 我忍住了八卦前任的冲动,转而提到我刚庆祝了我的第一个结婚纪念日。“希望这暂时不会成为你的问题,”他回答道,我们都笑了起来。 **辛顿吃饭的速度快得多,**所以当他接到姐姐的电话时,我松了一口气。他告诉姐姐自己正在“一家非常嘈杂的餐厅”接受采访。他的姐姐住在塔斯马尼亚(“她想念伦敦”),哥哥住在法国南部(“他也想念伦敦”),而辛顿自己住在多伦多(当然,也想念伦敦)。 “所以我用从谷歌拿到的钱,在汉普斯特德西斯公园(Hampstead Heath)南边买了一座小房子”,这样他全家,包括他从拉丁美洲领养的两个孩子,都可以去住。 辛顿的谷歌钱来自于2013年卖掉的一家公司。这家公司是他和蘇茲克維以及另一位研究生亚历克斯·克里热夫斯基(Alex Krizhevsky)共同创办的,他们构建了一个能以人类水平的准确度识别物体的AI系统。他们卖了4400万美元,辛顿本想三人平分,但他的学生们坚持让他拿40%。交易完成后,他们加入了谷歌——辛顿在那里工作了十年。 他卖公司的动机是什么?为了支付他患有神经多样性(neurodiverse)的儿子的护理费用。辛顿“估算他大概需要500万美元……而我从学术界是拿不到这笔钱的”。他在脑子里算了算,税后从谷歌拿到的钱“略微超出了”这个目标。 他于2023年离开了这家科技巨头,并在接受《纽约时报》采访时警告了该技术的危险。媒体报道称,他辞职是为了能更坦率地谈论人工智能的风险。 “每次我和记者交谈,我都会纠正这个误解。但这从没什么效果,因为那个故事太吸引人了,”他说。“我离开是因为我75岁了,我的编程能力不如从前了,而且Netflix上还有一大堆我没来得及看的东西。我已经非常努力地工作了55年,我觉得是时候退休了……而且我想,既然我都要走了,我正好可以谈谈那些风险。” 科技高管们常常描绘一幅乌托邦式的未来图景,人工智能将帮助解决饥饿、贫困和疾病等宏大问题。辛顿曾因癌症失去了两位妻子,他对医疗保健和教育的前景感到兴奋——教育是他非常关心的领域,但对其他方面则不然。 “实际会发生的是,富人将使用人工智能来取代工人,”他说。“这将造成大规模失业和利润的急剧增长。它会让少数人变得更富,而大多数人变得更穷。这不是人工智能的错,这是资本主义制度的错。” 奥尔特曼和他的同行们曾建议,如果劳动力市场对人口来说变得太小,可以引入全民基本收入(universal basic income),但这“无法解决人的尊严问题”,因为人们从工作中获得价值感,辛顿说。他承认想念他的研究生们,可以和他们碰撞想法或向他们提问,因为“他们年轻,理解事物更快”。现在,他转而问ChatGPT。 这会导致我们变得懒惰和缺乏创造力吗?认知外包(Cognitive offloading)是目前正在讨论的一个概念,即人工智能工具的用户将任务委托出去,而没有进行批判性思考或记住检索到的信息。又到了打比方的时候了。 “我们穿衣服,因为穿衣服,我们的毛发就变少了。我们更容易因寒冷而死,但前提是我们没有衣服穿”。辛顿认为,只要我们能接触到有用的人工智能系统,它就是一个有价值的工具。 他看了看甜点选项,并确保这次自己先点:草莓配奶油。巧的是,这也是我想要的。他要了一杯卡布奇诺,我要了一杯茶。“这是我们产生分歧的地方。” 奶油实际上是微微融化的冰淇淋,在我描述一个在硅谷司空见惯,但对大多数人来说如同科幻的场景时,它正慢慢变成液体:我们幸福地生活在“具身AI”(embodied AI)——也就是机器人——中间,并随着我们将人造部件和化学物质添加到身体中以延长生命,而慢慢变成赛博格(cyborgs)。 “那有什么问题吗?”他问。我们会失去自我意识和作为人的意义,我反驳道。“那又有什么好的呢?”他回应道。我试图追问:这不一定非得是好的,但我们将不再拥有它,那就是灭绝,不是吗? “是的,”他说,停顿了一下。 “我们不知道将会发生什么,我们毫无头绪,那些告诉你将会发生什么的人只是在犯傻,”他补充道。“我们正处于历史的一个节点,一些惊人的事情正在发生,它可能好得惊人,也可能坏得惊人。我们可以猜测,但事情不会一成不变。” 克里斯蒂娜·克里德尔是《金融时报》驻旧金山的科技记者,负责报道人工智能领域
ginobefun
4个月前
想象一下,过不了几年,AI 智能体就像今天的 App 一样,无处不在。但别急着把它们看作手机里那些 App 的升级版,那样就太小瞧它们了。 大多数人眼里的 AI 智能体,可能还是个更聪明的工具,帮你订餐、规划行程,最多是个得力助手。但特赞创始人范凌博士和他的 ,给我们描绘了一个更激动人心的画面:AI 不再仅仅是听话的工具,它正在变成能模拟真人的“数字演员”。 那么,Atypica 和我们通常理解的 AI 智能体,最大的不同是什么? 打个比方: - 传统 AI 智能体 像个超级员工或“万能遥控器”。 你给它指令,它帮你完成任务、搜索信息、写代码,或者把不同工具串联起来提高效率。它的核心是做事和回答问题。就像一个聪明的助手,你问它“今天天气怎么样?”,它给你答案。 - Atypica 更像一群“虚拟用户”或“数字焦点小组”。 它不直接给你答案,而是用 AI 扮演出各种典型的用户。比如,你想知道年轻人为什么喜欢某个新潮饮料,会生成几个符合特征的虚拟年轻人,然后让另一个AI 专家去采访这些虚拟年轻人,问它们:“你为什么喜欢这个饮料?口感?包装?还是别的?” 通过这种方式,你能高效、低成本地听到大量“用户”的声音。 核心区别在于: 1、焦点不同 传统 AI 聚焦于解决问题、执行任务、提供信息(更像一个收敛的过程,找到答案)。 Atypica 聚焦于模拟人类、理解主观世界、洞察需求(更像一个发散的过程,探索可能性)。它要为主观世界建模。 2、角色不同 传统 AI 通常是回答者、执行者。 Atypica 可以是提问者(AI扮演专家)、被访谈者(AI扮演用户)。它让 AI 反过来向我们提问,或者模拟用户间的讨论。 3、价值不同 传统 AI 主要价值在于效率提升、自动化。 Atypica 主要价值在于商业洞察、创意激发、共情理解。它甚至欢迎 AI 的幻觉,因为那些意想不到的观点,可能正是打破思维定式的金钥匙,特别适合需要多元视角的商业决策或民意调查。 简单说,如果把传统 AI 比作给你鱼或者教你捕鱼的工具,那 Atypica 就是帮你创造了一个模拟的鱼塘,让你能观察和理解各种鱼(用户)的行为和偏好。它不再局限于工具层面,而是试图成为一面洞察人性和社会的镜子。 这种转变,就像我们以前用望远镜观察星辰(获取信息),现在我们开始创造一个个微缩宇宙(模拟系统)来理解宇宙的法则。 正是想用 AI 来构建人类主观世界的微缩宇宙,让我们更懂消费者,甚至更懂我们自己。