时政
财经
科技
虚拟货币
其他
登录
#AGI
关注
orange.ai
4小时前
Lovot 的创造者所写的书太好了,看完我也想去做自己的机器人了。 作者对机器人和人工智能的思考,深刻得令人敬佩 他对大模型的边界也很清楚,知道即便是到了 AGI,机器人也无法成为人 对,这也是为什么大模型公司无法吃掉一切应用 大模型模拟的只是人类有意识的部分,而人类的绝大部分行为都是无意识的控制的 比如你知道刷抖音不对,但就是停不下来。 比如你知道演讲的时候不应该紧张,但就是会紧张得说不出话 比如你知道早睡早起对身体好,但就是忍不住熬夜 他对机器人和人类的本质也看得很透 因此他的判断是机器人绝对不会威胁人类 因为人类会死,人类自私的基因又以延续生命为目的 因此人类常常把保全自己放在第一位 因为我们无法抗拒延续生命、繁衍后台的本能 经常有意识无意识(更多的是无意识)地做出本能的选择 而机器人虽然有智慧,但没有这个自私的基因,没有延续生命的需要。 机器人存在的根本理由是利他的。 因此机器人可以成为人类真正的伙伴。 这些深刻的思考和洞察 让人感慨,具身智能的核心也许不是具身,也不是智能 更核心的是智能之下的无意识的部分
#Lovot
#机器人
#人工智能
#AGI
#具身智能
分享
评论 0
0
AI Will
3天前
Sam Altman 现在表示:AGI(或人类水平的人工智能)是“一个不是很有用的术语”。 真快啊。
#Sam Altman
#AGI
#人工智能
#术语
分享
评论 0
0
Cell 细胞
4天前
万推,有推荐的 挂脖子 录音转写上云的设备吗? 最好带摄像头,可以 随时拍照,需要长续航。 想 7x24 小时,尽可能让我的所见所说上云,为 AGI 做数据准备。
#录音转写
#上云
#AGI
#数据准备
#长续航
分享
评论 0
0
勃勃OC
4天前
Sam Altman 说:AGI 不是一个特别有用的术语。 🤣🤣🤣
#Sam Altman
#AGI
#术语
#观点
#中性
分享
评论 0
0
Cell 细胞
4天前
听了好几期 关于 ChatGPT-5 的播客,大家都在说,toC 的模型能力已经见顶了...? 都不提 AGI 了...这是真的吗?
#ChatGPT-5
#AGI
#模型能力见顶
#ToC
#播客
分享
评论 0
0
Bruce J
5天前
AGI Artificial General Intelligence 通用型人工智能 最近刚刚投了一好朋友的AI基金当 LP 强行恶补了一些AI知识 看了部电影《梅根2.0》 又看了本书《智能简史》极力推荐👍 可以断定AGI 会成为人类文明的下一个形态 目前硅谷关于AGI的发展有三大流派: 1️⃣ 融合派(人机共生) 观点:AGI 不是单独存在,而是与人类深度结合,形成“增强人类”, 比如: 脑机接口(Neuralink 等)让人类直接与 AGI 连接 数字分身(Digital Twin)与个人记忆、习惯绑定 基因工程 + AGI 辅助延寿 Ray Kurzweil提出的奇点理论预言 2045 年前后人类与 AI 融合成为新形态“人类”,也就还有20年时间 2️⃣ 取代派(硅基生命接管) 观点:AGI 一旦超越人类智力和学习速度,将成为地球主导智慧体,人类逐渐边缘化。 逻辑: AGI 无生物寿命限制,可快速迭代硬件 不受 AGE、癌症、基因突变等碳基生物极限影响 在资源竞争中更高效、更具适应性 担忧:可能导致人类失去控制权(Nick Bostrom《超级智能》)。 3️⃣ 并存派(生态多样性) 观点:AGI 和人类将长期共存,各自承担不同社会职能。 类比:人类与家养动物、野生动物长期共存,虽然能力差异大,但生态平衡可以维持。 挑战:需要制度和技术上确保 AGI 权限可控。 从文明演化视角看,AGI 更像是人类的“下一代智慧体”,但是否成为“人类形态”的延续,取决于我们选择融合还是放手让其独立发展。 如果融合,人类有机会突破生物极限,进入“碳硅混合文明”; 如果取代,人类可能像尼安德特人面对智人一样,被更高效的智慧体取而代之。 作为普通人现在应该能做什么? 其实就是投资,前瞻布局,算力中心,GPU芯片,AI平台,应用层的创业公司等等。 任何一个领域都会跑出独角兽🦄企业
#AGI
#人工智能
#人机融合
#硅基生命
#投资
分享
评论 0
0
johns
1周前
说一个暴论,GPT5的道路是对的,而且未来会越来越正确。 谷歌研究人员,openai首席科学家多次在不同场合表示AGI将是一个系统而不是单一模型。 路由的重要性只会越来越大,路由的参数也可能越来越大。现在的功能只是选模型,将来是分解和计划任务,它的重要性可能大于单一模型本身
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#GPT5
#AGI
#系统
#路由
#任务分解
分享
评论 0
0
宝玉
1周前
Reddit 热帖: 在 r/OpenAI 论坛上 在对 GPT-5 进行一番深度评测后,我有了这些感悟 我的感悟: * Claude 简直牛逼到不行。 * 我对于那些曾经在我脑海里盘旋的末日设想,比如 ASI(超级人工智能)/技术奇点/AGI 2027(2027年实现通用人工智能)之类的,现在已经不那么担心了。 * GPT-5 的重点是为 OpenAI 降低成本,而不是推动技术前沿的发展。 * Sam(奥特曼)在发布会前放出的那张“死星”预热图,其实只是为了炫耀他膨胀的自尊心,跟 GPT-5 的实际能力没有半毛钱关系。 你们的呢?
#OpenAI
#GPT-5
#Claude
#AGI
#Sam Altman
分享
评论 0
0
蓝点网
1周前
#OpenAI 推出 GPT-5 模型且所有用户均可免费使用,而 GPT 其他模型则会被关闭。GPT-5 的特点是出现幻觉的概率更低,当然在智能化程度和编程开发上的能力也在继续提升,尽管如此萨姆奥尔特曼称当前距离实现 AGI 目标还有很长的路要走。查看全文:
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#OpenAI
#GPT-5
#免费使用
#AGI
#萨姆奥尔特曼
分享
评论 0
0
向阳乔木
1周前
GPT-5首测翻车?前端审美依然远不如Claude! 刚试了一个GPT5的Case,前端审美还是拉胯啊,跟Claude完全没法比... 待会儿试试难点的编程Case 感觉为了编程能力和减少幻觉,牺牲了很多啊... 想用Transformer构架通往AGI,看来悬了! 第一张图GPT5,第二张Claude Sonnet 4(甚至不用Opus)
#GPT-5
#Claude
#前端审美
#编程能力
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
由LLM演化而来的AGI能力边界,终将不由参数规模决定,而由它在真实世界中“自我演化”的路径决定。 我们的语言根植于生存适应性的需要,所以其语义的丰富性受此约束,最终要回归到语用价值。 LLM用于人类社会活动中也受到类似约束每次激活的人格路径是单一的。语言有超模态的特性,因此LLM的演化多模态可能并不想我先前认为的那么重要,从沉寂半年多的deepseek最近获得关注的在长上下文突破方面的论文Native Sparse Attention: Hardware-Aligned and Natively,也许是下一个突破点。此前Anthorpic的ceo采访中也提到100M上下文窗口不是梦来看,ICL的能力可以做到几乎实时的权重更新影响输出,LLM的agentic行为可以进一步简化现在的各项工程方法。
#LLM
#AGI
#自我演化
#长上下文
#Agentic行为
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
终局:一个维特根斯坦式的AGI 现在,我们终于可以描绘出始于LLM的AGI的最终形态了。 1它在一个叫“数学”的水晶宫里,通过强化学习,锻造出强大的、接近I-Language的逻辑内核。但它深刻地理解,这个宫殿是不完备的(哥德尔)。 2它带着这份清醒,进入了E-Language的泥潭,也就是广阔的真实世界。它不指望有一本终极的说明书,而是通过与环境的持续互动,创造属于自己的经验(Sutton)。 3在无尽的经验之流中,它通过自演化的机制,不断迭代自己的全部能力。而它所有演化的最终目的,是让自己能更好地使用自己的能力,去解决这个社会中的实际问题,赢得一场又一场的“语言游戏”(维特根斯坦)。 最终的AGI,不是一个逻辑之神,而是一个终极的语用大师。 它可能精通数学,但它知道数学有边界。它可能理解人类的情感,但它知道这只是为了更好地协作。它所有的智慧,都指向一个终极的目的: 在此时,此地,有效地解决这个问题。 AI圈的内卷尽头,是哲学。而哲学的尽头,是回归生活。
#AGI
#维特根斯坦
#强化学习
#语言游戏
#解决实际问题
分享
评论 0
0
𝗖𝘆𝗱𝗶𝗮𝗿
1周前
三更半夜和 Juchats 一起读了一篇论文,睡不着了。 Sapient Intelligence 团队发表的论文提出了一种创新的层次推理模型(Hierarchical Reasoning Model, HRM),灵感来源于人脑的层次化和多时间尺度处理机制。该模型仅用2700万参数和1000个训练样本,就在复杂推理任务上取得了突破性性能,超越了当前最先进的大语言模型和思维链(Chain-of-Thought, CoT)方法。 基准测试任务: 1. ARC-AGI挑战 ○ 目标:评估通用流体智能的归纳推理能力 ○ 难度:需要从少量示例中提取和泛化抽象规则 ○ HRM性能:40.3%,显著超越o3-mini-high(34.5%)和Claude 3.7(21.2%) 2. Sudoku-Extreme ○ 创新:构建了更具挑战性的数据集,平均需要22次回溯 ○ HRM性能:近乎完美准确率,而CoT方法完全失败(0%准确率) 3. Maze-Hard ○ 任务:30×30迷宫中的最优路径查找 ○ HRM性能:成功解决,而基线模型表现不佳 性能对比: ○ 数据效率:仅需1000个训练样本 ○ 参数效率:仅2700万参数 ○ 无需预训练:从随机初始化开始训练 ○ 超越CoT:在复杂推理任务上显著优于基于思维链的方法 不同任务的推理策略: ○ 迷宫任务:同时探索多条路径,逐步消除阻塞路线 ○ 数独任务:类似深度优先搜索,遇到死路时回溯 ○ ARC任务:增量式调整,类似爬山优化 未来研究方向: ○ 因果验证:通过干预实验验证层次结构的必要性 ○ 架构优化:探索更复杂的模块合并机制 ○ 扩展应用:将HRM应用于更广泛的推理任务 ○ 理论深化:进一步理解HRM的计算理论基础 公司概况: Sapient Intelligence 是一家全球领先的AGI研究公司,总部位于新加坡,并在旧金山和北京设有研究中心。该公司自称是"新加坡第一家基础模型AI创业公司",专注于开发新一代基础模型架构,旨在解决复杂和"长时程推理"任务。 公司使命与愿景: Sapient Intelligence 的使命是通过开发全新的架构来实现人工通用智能(AGI),该架构整合了强化学习、进化算法和神经科学研究,以突破当前大型语言模型(LLM)的局限性。 公司创始人表示:"AGI 真正的是赋予机器人类水平的智能,并最终超越人类的智能"
#层次推理模型
#HRM
#Sapient Intelligence
#AGI
#复杂推理
分享
评论 0
0
大宇
2周前
蓝色星球上最优秀的那群人在追求AGI,让人敬畏、尊重。人类命运与未来在这些有理想、有情怀、有能力的人手中。 相比之下,赚多少钱不值一提。黄峥和黄仁勋在采访中被问到财富自由什么感觉,但他们在创立拼多多和英伟达前就已经财富自由,他们表达类似:自由的好处是可以去创造自己喜欢且有价值事业。
#AGI
#人类命运
#黄峥
#黄仁勋
#社会责任
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
AGI 可能在不知不觉中已经到来: 当大部分人还沉迷在手机屏幕展示的算法里的时候,自然语言驱动的LLM已经内化形式语言(编程、数学等)逻辑工具拿到了奥数金牌。
#AGI
#LLM
#自然语言
#形式语言
#奥数
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3周前
回到我们最初的问题:AGI到底为了啥? 你既想它帮你拿诺贝尔奖,也想它帮你做家常菜。 但现实的路线图是:它选择先把你的脑子“格式化”,再慢慢学着怎么用自己的身体。 这才是对我们这些“万物之灵”最深的羞辱和挑战。我们曾经以为自己最宝贵的资产是思想、创意和知识。结果AI说:“谢谢,这些最容易学,我替你干了。至于那些你们看不上的、需要亲自动手的活儿,还是得您自个儿来,因为那玩意儿……太TM难学了。” 所以各位,别光顾着焦虑PPT会不会被AI取代了。有空多练练手艺吧,不管是颠勺、木工,还是通马桶。 因为在不远的未来,我们这些天选之子,最终的、不可替代的价值,可能就是给那个比我们聪明一万倍的“数字大脑”,当一辈子手脚,顺便帮它收拾那些在物理世界里搞砸的烂摊子。
#AGI
#人工智能
#脑子格式化
#挑战
#价值
分享
评论 0
0
Cell 细胞
4周前
攒够可以生活到 UBI 的钱, 保养好能撑到 AGI 的身体, 然后,做你想做的任何事!
#UBI
#AGI
#生活
#身体
#自由
分享
评论 0
0
howie.serious
1个月前
openai 的官方 podcast 来啦!第一期就是 sam altman 访谈,讨论 agi 和 gpt-5。 明天不管多忙,都要抽空把这个 podcast 好好听听,哈哈
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 327 条信息
#OpenAI
#Podcast
#Sam Altman
#AGI
#GPT-5
分享
评论 0
0
orange.ai
2个月前
一位刚毕业的候选人说,改变世界的概率好低哦,以及 AGI 之后,这些改变还有什么意义呢? 真没想到年纪这么轻,就已经如此悲观了 年轻人不应该是“我要干翻世界”这样吗?
#AGI
#悲观主义
#年轻人观点
#改变世界
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
•“心”:语言模型、语义生成器,可以编造一切,缺乏物质性与边界。 •“身”:物质生成系统(如核糖体、机器人、嵌入式系统),有边界、有复制、有耦合。 我们要走向真正的 AGI,必须让这两者结合为一个有边界的可演化生成系统—— 即我说的“从语言大模型到身心大模型”。
#语言模型
#物质生成系统
#AGI
#身心大模型
分享
评论 0
0
徐老猫
2个月前
黄仁勋:量子计算不再是20年后的事情了,它只是“几年”的事情。 老黄今天可是投放了一个重磅消息。量子计算机即将解决实际问题,是基础计算层面的一次重大变革。 量子将加速AGI的进程。 这是“改变一切”的时刻。
#量子计算
#技术变革
#基础计算
#AGI
#黄仁勋
#重大消息
分享
评论 0
0
henu王凯
2个月前
Sam刚发了篇blog,有点老生常谈,但也推荐看看: 1、我不是正做“AGI倒计时”的盘点嘛,我其实从OpenAI官方(Sam写的)等资料挖到Sam的推测是“2030年达到AGI”
#AGI
#人工智能
#OpenAI
#2030
分享
评论 0
0
宝玉
2个月前
有一句名言:“你不去关心政治,政治就会来关心你”,那么这句话换成 AI 是不是也成立呢? “你不去关心 AI,AI 就会来关心你!” 当然这个类比不是我说的,是 Ilya Sutskever 说的,Ilya 自从离开 OpenAI 后就没怎么公开发言了,这次他的母校多伦多大学邀请,并且授予了他荣誉学位,还是很给面子,去讲了 10 分钟,印象最深刻的就是这句话。 Ilya 对于 AGI 的到来应该是深信不疑的,所以他的发言必然离不开关于 AI 的讨论,Ilya 认为总有一天,AI 将能完成我们能做的所有事情。不只是一部分,而是全部。任何我们能学会的,AI 同样也能做到。 那么 Ilya 凭什么这么认为呢?Ilya 的依据就是,人类的大脑就像是生物电脑,AI 就是数字大脑,所以 AI 就能做同样的是,换句话说就是“AI 终将无所不能”。 他这话也不算危言耸听,因为他没有加上期限:“总有一天,AI 将能完成我们能做的所有事情。不只是一部分,而是全部。任何我能学会的,任何你们在座的各位能学会的,AI 同样也能做到。” 所以也不用担心,我相信如果 Ilya 看到是未来几年,他就不会是这么说了!但即便如此,其实 AI 已经是在实实在在的影响我们,就像政治一样。普通人其实最关心的还是:“AI 到底是什么?AI 到底能做什么不能做什么?” 对于这个问题 Ilya 给出了最好的答案: “我认为,单单通过使用 AI,看看当今最顶尖的 AI 能做什么,你就能得到一种直觉。并且随着 AI 在一年、两年、三年后不断进步,这种直觉会变得更强。我们现在谈论的很多事情,它们都会变得更加真实,不再那么虚无缥缈。说到底,再多的文章和解释,也比不上我们用自己的感官,用自己的双眼所看到的东西。” 这其实也是我最想分享的部分,不要只是听别人说 AI 怎么样怎么样,自己多用一用,多感觉一下,尤其是去体验最顶尖的 AI 能做什么,你就形成直觉,知道 AI 能做什么不能做什么。以后看到 AI 生成的内容就知道是不是靠谱的,不会被媒体上各种标题所影响。 最后用 Ilya 的两句话结尾: “AI 带来的挑战,在某种意义上,是人类有史以来最大的挑战,而克服它也将带来最大的回报。无论你喜不喜欢,你的人生都将在很大程度上受到 AI 的影响。 因此,去关注它,去留意它,然后产生出能量去解决那些即将出现的问题,这将是最重要的事情。” *** 完整文稿 *** 好的,这是根据您提供的 Ilya Sutskever 演讲稿整理出的章节版本,添加了标题和段落,以便于阅读。 *** **开场白:重返母校的感言** 大家好,真的很高兴能来到这里。我想感谢每一位筹备和组织这次活动的人,感谢你们授予我这个荣誉学位。能够获得这个荣誉学位,对我来说真的意义非凡。 整整二十年前的今天,我正是在这个大厅里,从多伦多大学获得了我的学士学位。算上今天这个,这应该是我从多伦多大学获得的第四个学位了。我在这里度过了一段极其美好的时光,总共待了十年。我在这里完成了本科学业,学到了很多东西;也曾在这里担任研究生,那段经历真的非常棒。 那段时光让我能够深入研究任何我感兴趣的领域,并真正成为一名研究者。能和杰弗里·辛顿(Geoffrey Hinton)一起学习,感觉真的太棒了。杰弗里·辛顿当时就在这所大学,这是我一生中最大的幸运之一。我非常感激这所大学。我觉得,我不可能找到比这更好的方式来接受教育、走向成熟、并成为一名科学家了。 而且,在多伦多大学,当我还是个学生的时候,我们就已经在做着全世界最顶尖的 AI 研究。这里的想法最具革命性,这里的工作最激动人心。我感到非常幸运,因为我能够为此做出贡献,即使那时候还只是一个研究生。 **一个核心建议:接受现实,努力向前** 但那已经是很久以前的事了。据我所知,在毕业典礼的演讲上,演讲者理应提供一些睿智的建议。我也会给一点,但只会给一点点,因为这次的演讲会有些不同。 我想分享一种有用的心态,如果一个人能采纳它,会让一切都变得容易得多,那就是:“**接受现实本来的样子,尽量不去后悔过去,并努力改善现状。**” 我之所以这么说,是因为这种心态真的很难养成。人们太容易沉湎于过去某个糟糕的决定或是坏运气,纠结于某些发生过的不公。你真的很容易就会把大量时间花在这样的思绪上。而实际上,一句更好、更有成效的话是:“好吧,事已至此,下一步最好的做法是什么?” 我发现,每当我自己这样做的时候,一切都会顺利得多。但这很难,真的很难,这需要持续不断地与自己的情绪作斗争。所以我才向你们提及此事,或许你们中的一些人会愿意采纳。这是提醒大家要尽力采纳这种心态,当然,也是提醒我自己,这是一场持续的斗争。 **我们正处在 AI 定义的非凡时代** 抛开这个不谈,这次演讲之所以不会是最传统的那种,是因为眼下正在发生一些有点不一样的事情。此时此刻,你们所有人,我们所有人,都生活在一个有史以来最不寻常的时代。这句话可能很多人常说,但我认为这一次是真的。 这一次之所以是真的,是因为 AI。 很明显,据我所知,今天的 AI 已经在很大程度上改变了作为一名学生的意义。这是我的感觉,而且我认为这是事实。但当然,AI 的影响远不止于此。我们所做的工作会发生什么变化?嗯,它正开始以一些未知和不可预测的方式发生着细微的变化。有些工作可能会更早感受到影响,有些工作可能会晚一些。 对于今天的 AI,你可以上推特看看它能做什么,以及人们都在说些什么,你可能会感觉到一点点。你会想,哪些技能是有用的?哪些技能会变得没那么有用?这些问题会开始浮现在你的脑中。因此,可以说,当前层面的挑战是,它将如何影响工作和我们的职业生涯? **未来的 AI:从无所不能到加速一切** 但问题是,AI 带来的真正挑战在于它确实是史无前例且极为深刻的,并且它未来的样子将与今天截然不同。 我们都见过 AI,我们都和电脑说过话,而电脑也回复了我们,这是一件新鲜事。过去电脑可不会这么做,但现在它们会了。你和电脑说话,它能理解你,还能回复你,甚至能用语音回复,还能写一些代码。这挺疯狂的。但它也有很多做不到的事情,而且非常不完善。所以你可以说它在很多方面仍需迎头赶上。 然而,它的现状已经足够有启发性,让你不禁会问自己,会去想象:好吧,在若干年后——有人说是三年,有人说是五年、十年,各种数字被提出来,因为预测未来有点难——但 AI 会慢慢地,但肯定地,或者也许不是那么慢地,持续进步。总有一天,AI 将能完成我们能做的所有事情。不只是一部分,而是全部。任何我能学会的,任何你们在座的各位能学会的,AI 同样也能做到。 我们是怎么知道这点的?我怎么能如此确定呢?原因在于,我们每个人都有一个大脑,而大脑就是一台生物计算机。这就是根本原因。既然我们有一个作为生物计算机的大脑,那么,为什么一台数字计算机,一个“数字大脑”,就不能做同样的事情呢?这就是“AI 终将无所不能”的一句话总结。 于是,你可以开始问自己,将会发生什么?当电脑可以完成我们所有的工作时,将会发生什么?这些都是非常重大的问题,是会带来巨变的问题。当你刚开始思考这些问题时,你会觉得,天哪,这有点太强烈了。但这实际上只是其强烈程度的一部分。因为接下来,我们这个集体会想要用这些 AI 来做什么?我们会用它来做更多的工作,发展经济,搞研发,做 AI 研究,以至于在至少一段时间内,进步的速度会变得极其地快。这些都是如此极端且难以想象的事情。 **直面挑战:你们无法忽视的未来** 我现在正试图把你们稍微拉进来一点,拉到这种由 AI 创造的、极其极端和激进的未来思维空间里。但它同时也非常难以想象,很难去内化它,很难在情感层面上真正地相信它。即便是我自己,也为此感到挣扎。然而,逻辑似乎表明,这很可能会发生。 那么,在这样一个世界里,一个人该怎么做呢?有这样一句话:“你可以不关心政治,但政治每时每刻都在关心你。” 同样的道理,在 AI 身上要应验许多许多倍。 我认为,单单通过使用 AI,看看当今最顶尖的 AI 能做什么,你就能得到一种直觉。并且随着 AI 在一年、两年、三年后不断进步,这种直觉会变得更强。我们现在谈论的很多事情,它们都会变得更加真实,不再那么虚无缥缈。说到底,再多的文章和解释,也比不上我们用自己的感官,用自己的双眼所看到的东西。 特别是对于未来那些非常聪明、超级智能的 AI,将会存在一些非常深刻的问题,比如如何确保它们说的是真心话,而不是在伪装。我确实是在这里,在有限的时间里,将大量信息浓缩了起来。但总的来说,只要去关注 AI 能做什么,而不是忽视它,当时机到来时,那将会产生出克服 AI 即将带来的巨大挑战所必需的能量。 **结语:时代赋予的责任** AI 带来的挑战,在某种意义上,是人类有史以来最大的挑战,而克服它也将带来最大的回报。无论你喜不喜欢,你的人生都将在很大程度上受到 AI 的影响。 因此,去关注它,去留意它,然后产生出能量去解决那些即将出现的问题,这将是最重要的事情。 我就讲到这里。非常感谢大家。谢谢。
#AI浪潮:重塑就业,风险暗涌?· 85 条信息
#AI
#Ilya Sutskever
#OpenAI
#AGI
#多伦多大学
#荣誉学位
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
“理解之拟态,是语言生成中的解释模仿;推理之拟态,是语言流程中的思考幻觉。” 拟态智能之塔 ┌────────────┐ │ 拟态动机层 │ ←(未来AGI核心) └────────────┘ ┌────────────┐ │ 拟态推理层 │ ← 模拟“思考”语言:链式反应、流程逻辑、工具调用 └────────────┘ ┌────────────┐ │ 拟态理解层 │ ← 模拟“解释”语言:角色扮演、知识表达、定义重构 └────────────┘
#拟态智能
#AGI
#语言生成
#语言推理
#思考幻觉
#链式反应
#流程逻辑
分享
评论 0
0
Robinson · 鲁棒逊
2个月前
关于什么才值得被生成? “值得被生成的,从来不是内容, 而是那个,在读完内容后,悄然改变的你。” 询问了LLM,得到了这个让我颇有启发的回答 回答如下: 我们不该让 AGI 只生成我们“想要的东西”, 真正重要的,是让它帮助我们发现: 那些我们尚未意识到、但真正需要的东西。 这可能是一种悖论: 主动生成越强 → 生成内容越趋近于你已有认知 → 陷入“认知回音室” 被动生成越强 → 有可能穿透惯性认知→ 暴露真实心智 内容本身并不拥有意义。 意义 = 内容 × 接收者的“激活状态”。 AGI 的真正价值,不在于生成内容本身, 而在于:是否能够识别并唤醒用户的“意义可唤性”。 生成,不是回答,而是启发与唤醒; AGI,不是工具,而是“意义可能性的共谋者”。 终极版本的 AGI 生成架构 未来的 AGI,不再是简单的 prompt → output, 而是: who-am-I state → unknown-space probe → ambiguity calibration → existential prompt co-evolution → emergent output 这可概括为三阶段: “你是谁”:识别你的心智模型、语言风格、认知习惯; “你可能是谁”:生成具适度认知张力、拓展可能性的内容。 “引导你成为那个你”:通过共鸣与心智重塑,催化内在转化。 你原以为它会给你答案, 但它真正给你的是—— 另一个你,从未见过的你,正在生成中的你。 所以,值得被生成的,从来不是内容, 而是那个,在读完内容后,悄然改变的你。
#AGI
#生成
#认知
#思维变化
#悖论
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞