时政
财经
科技
虚拟货币
其他
登录
#AGI
关注
大宇
4周前
AGI是支持美股狂飙的梦 这个梦有没有可能50甚至100年后才实现? 好处是没有人能证伪,突然觉得美股看多AI的基金合力在讲在信的故事创意太伟大了
#AGI
#美股
#AI
#梦想
#长期
分享
评论 0
0
✧ 𝕀𝔸𝕄𝔸𝕀 ✧
1个月前
AI 的进化不是画圆,而是长刺。 我们正站在那个星号的位置,惊叹于它的神力,也困惑于它的愚蠢。 距离填满那个圆,AGI还有多远?
AI高考数学测试:O3意外落后,Gemini夺冠引发热议· 67 条信息
#AI进化
#AGI
#人工智能
#技术挑战
#未来展望
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
Ilya一语点醒AGI梦中人: we are back to the age of research.
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya Sutskever
#AGI
#AI Research
#back to research age
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
Ilya重新定义了AGI,Pre-Training gives AGI! 我的理解是LLM操纵语言的能力给了人AGI的幻觉,这是hype,带来了泡沫! 当前GenAI,在符号空间无人能敌,然后却在人的现实世界里符号落地困难重重!
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya
#AGI
#LLM
#genAI
#泡沫
分享
评论 0
0
宝玉
1个月前
Ilya:扩展时代已经结束了,研究的时代已经开始 Ilya Sutskever 大概得有一年多没参加播客访谈了,自从 OpenAI 宫斗离职创办 SSI(Safe Superintelligence)后之后就很少露面了, 最近,他在 Dwarkesh Patel 的播客中进行了一场长达一个半小时的深度对谈。Ilya 毕竟是 Ilya,他不像 Sam Altman 整天满嘴跑火车,只是为了卖货,访谈里面有很多干货,我猜一些观点甚至会影响以后 AI 在研发和投资上的走向。 一个多小时的内容很难说几句话就总结完,还是按照话题挨个整理一下。 【1】为什么 AI 能在考试中碾压人类,却修不好一个简单的 bug? Ilya 在访谈里抛出一个很多人都遇到过也困惑过的现象:现在的模型在各种评分上表现惊艳,但用起来却远远跟不上能力曲线。更诡异的是,你让它改个 bug,它改完引入新 bug;你指出新 bug,它道歉后又改回旧 bug。两个 bug 来回切换,像在打乒乓球。 Ilya 使用一个类比来解释这个问题的:想象两个学生。 第一个立志成为顶级竞赛程序员,刷了一万小时题,背熟所有算法模板,练到条件反射般精准。第二个觉得竞赛挺酷,随便练了一百小时,也拿了不错的成绩。 哪个人未来职业发展更好? 大概率是第二个。 Ilya 说,现在的模型比第一个学生还极端。训练时把所有竞赛题都刷了,还做了数据增强生成更多变体,一遍遍强化。结果就是:所有算法技巧都刻在指尖,但这种准备程度本身就限制了泛化能力。 这个类比点破了一件事:能力和泛化是两回事。刷题刷到极致,可能恰恰堵死了触类旁通的路。 【2】真正的 reward hacking(奖励作弊)是人类研究员 问题出在哪?Ilya 认为是训练数据的选择逻辑变了。 预训练时代很简单:数据越多越好,什么都往里塞,不用挑。但 RL(强化学习)时代不一样了。你得选择做什么强化训练、用什么环境、优化什么目标。 于是一个微妙的循环出现了:研究员想让发布时的 benchmark 得分数字好看,就设计能提升这些指标的 RL 训练。模型变得越来越会考试,但考试能力和真实世界能力之间的鸿沟被放大了。 讽刺的是,真正在奖励作弊的不是模型,是设计训练的人在不知不觉中过度关注了考试成绩。 【3】为什么人类学东西这么快 说到这里就要问一个更深的问题:为什么人类学东西这么快,而且这么稳? Ilya 提到一个特别有意思的医学案例:有个人因为脑损伤,失去了所有情绪——不会难过、不会愤怒、不会兴奋。看起来他还是能说话,能做智力题,测试分数也正常。但他的生活彻底崩溃了:花几个小时决定穿哪双袜子,财务决策一塌糊涂。 这说明什么?情绪不只是情绪,它在某种程度上充当了内置的价值函数。它告诉你什么事值得做,什么选择是好是坏,不需要等到最后结果出来才知道。 价值函数是个技术术语,但概念不难理解。传统的强化学习是这样的:模型做一长串动作,最后得到一个分数,然后用这个分数去调整之前所有步骤。问题是,如果任务需要做很久才有结果,学习效率就很低。 价值函数的作用是“提前剧透”。比如下棋时你丢了一个子,不用下完整局就知道这步不好。编程时如果探索了一个方向走了一千步发现不对,价值函数能让你在一开始选择这个方向时就得到负反馈。 这就像 GPS 导航,不是等你开到终点才告诉你这条路不对,而是在你刚拐错弯时就开始重新规划。 人类大概就是有这么一套系统。而且这套系统的妙处在于:它相对简单,却在非常广泛的情况下都管用。我们的情绪主要是从哺乳动物祖先那里继承来的,针对的是几百万年前的环境,但放到现代社会居然还能用得不错。当然也有失灵的时候,比如面对满街的美食,我们的饥饿感就管不住了。 【4】堆算力堆数据的扩展时代已经结束了,研究的时代已经开始 Ilya 认为规模化时代结束了? 他给了个很有意思的视角:在 2012 到 2020 年,大家在做研究,试这试那,看什么有意思。然后 2020 年左右,scaling law(规模化定律) 被发现了,GPT-3 横空出世。突然之间所有人意识到:原来只要扩展规模,堆数据、堆算力、堆模型参数大小,一路扩充,就能稳定得到更好的结果。 规模化的好处是低风险。而研究是有风险的,你得雇一堆聪明人去探索,不保证有成果。但规模化?只要投入更多资源,就一定能看到回报。公司喜欢这种确定性。但副作用是它吸走了房间里所有的氧气,创新空间被压缩,最后变成“公司比想法多”的局面。 但现在呢?预训练的数据就那么多,互联网就这么大,总会用完。Gemini 据说找到了从预训练榨取更多的方法,但这条路终归有尽头。然后大家转向了强化学习,开始在那上面堆算力。 可问题是:现在算力已经这么大了,再 100 倍真的会质变吗?Ilya 不这么认为。他觉得我们又回到了需要思考到底该做什么的阶段,而不是继续闷头堆资源。 这就像爬山。一开始你发现有条路,往上走就是了,越走越高。但总有一天,你会发现这条路到头了,再往前走也高不了多少。这时候要么换条路,要么换种爬法,总之不能继续原来的策略。 现在的 AI 行业就处在这个节点上。所以 Ilya 说:我们回到了研究时代,只不过这次手里有大得多的计算机。 【5】泛化能力才是核心问题 在 Ilya 看来,当前最根本的问题是:这些模型泛化能力太差了。 什么叫泛化能力差?就是学一样东西需要的数据量太多,而且学会的东西换个场景就不灵了。 人类不是这样的。一个青少年学开车,10 个小时基本就能上路了。而且人类五岁小孩的视觉能力就足以支持自动驾驶了,虽然他不会开车,但识别路况、判断距离这些能力已经很强了,而且这些能力是在父母家里那种数据多样性很低的环境里学会的。 更关键的是,人类学编程、学数学这些东西也很快。这些可不是进化给我们的能力,因为我们的祖先根本不需要写代码。这说明人类不光是在某些特定任务上有进化优势,而是在学习这件事本身上就有某种更本质的能力。 模型呢?虽然在某些具体任务上超过了普通人,但要说学习能力,还差得远。 Ilya 对这个问题有想法,但他说现在不能详细聊,因为在这个竞争激烈的领域,不是所有机器学习想法都能公开讨论的。不过他给了个方向性的提示:这很可能跟如何做到像人类那样高效、稳定的泛化有关。 还有一个可能的阻碍:也许人类的神经元实际上比我们想的做更多计算?如果是这样,事情就更复杂了。但不管怎样,人类的存在本身就证明了这种高效学习是可能的。 【6】重新定义 AGI:从成品到学习者 这里 Ilya 做了一个概念上的重要修正。 AGI 这个概念怎么来的?是作为“狭隘 AI”的反面而诞生的。以前的 AI 只会下棋,只会玩游戏,非常狭隘。所以大家说:我们要造通用的 AI,什么都能做的 AI。 预训练强化了这个印象,因为预训练确实让模型在各种任务上都变强。于是“通用 AI”和“预训练”在概念上绑定了。 但这里有个问题:按照这个定义,人类自己都不算 AGI。 人类有一套基础能力,但缺乏大量具体知识。我们靠的是持续学习。一个聪明的十五岁孩子什么都不会,但学什么都快。“去当程序员”、“去当医生”、“去学习”,部署本身就包含一个学习和试错的过程。 所以 Ilya 心目中的超级智能,不是一个出厂就什么都会的成品,而是一个能像人一样快速学习任何技能的学习者。 【7】能自动学习的 AI 会有多快到来?有多危险? 那么问题来了:如果有这样一个系统,能像人类一样快速学习,而且可以大量复制部署,会发生什么? 人类入职六个月才能产出价值,但这种 AI 可能几周就行。而且不同副本学到的东西还能合并,这是人类做不到的。这难道不会导致某种爆炸式增长? Ilya 认为确实会有快速的经济增长,但到底有多快很难说。一方面有高效的劳动者,另一方面现实世界很大,很多东西有自己的节奏,不是你想快就能快的。 但他确实改变了一些想法。以前 SSI 的计划是“直奔超级智能”——不发布中间产品,一鼓作气搞定终极目标。现在 Ilya 觉得,渐进式发布可能更重要。 【9】为什么要渐进部署?因为想象不出来就得看见 访谈中 Ilya 反复强调一点:AI 的问题在于它还不存在,而不存在的东西很难想象。 你可以读一篇文章说“AI 会变得多厉害”,但读完你觉得“哦,有意思”,然后回到现实。如果你亲眼看到 AI 在做那件事,感受完全不同。 他打了个比方:像二十岁时讨论“年老体弱是什么感觉”。你可以聊,可以想象,但真正的理解只能来自经历。 这导致一个实际问题:所有关于 AI 风险的讨论,都基于对未来 AI 的想象。而想象往往跟不上现实。就连天天做 AI 的人,也会因为当前模型的各种低级错误而低估未来模型的能力。 Ilya 的预测是:随着 AI 变得更强,人们的行为会发生根本改变。竞争对手会开始合作搞安全,政府和公众会开始认真对待监管。这些事情现在开始有苗头了,但还远远不够。而真正的催化剂,是让人们看到更强的 AI。 这也是他对 SSI“直奔超级智能”策略有所松动的原因。原本的想法是不参与市场竞争,专心做研究,等东西准备好了再拿出来。现在他觉得,让 AI 被看见这件事本身是有价值的。当然,无论哪种路径,最终部署都必须是渐进的。 【9】SSI 在做什么?不同的技术路线 SSI 融了三十亿美元。这个数字单看很大,但跟其他公司动辄几百亿的投入比起来似乎不够。 Ilya 算了一笔账。那些大数字里,很大一部分是用于推理服务的。另外,做产品需要大量工程师、销售、产品功能开发,研究资源被稀释。真正用于前沿研究的资源,差距没看起来那么大。 更重要的是,如果你在做不一样的事,不一定需要最大规模的计算来验证想法。AlexNet 用两块 GPU 训的。Transformer 论文最多用了 64 块 2017 年的 GPU,换算成今天也就两块卡。第一个推理模型 o1 的推理能力也不是靠堆算力堆出来的。 研究需要一定算力,但不需要最大算力。真正的瓶颈是想法。 那 SSI 的技术路线是什么?Ilya 没有完全透露,但核心方向是解决泛化问题。他认为现在的方法会走一段然后撞墙,继续进步但无法突破到真正的人类级学习能力。而 SSI 在探索不同的路径。 时间表呢?五到二十年,达到人类级别的学习能力。 【10】安全对齐是什么?应该对齐什么? 说到超级智能,绕不开安全对齐问题。Ilya 的想法是:让 AI 关心有感知能力的生命。 为什么是这个目标而不是“关心人类”?他给了个有意思的理由:AI 本身也会有感知能力。如果你想让 AI 关心人类,可能反而更难,因为它需要做某种特殊化处理。而如果让它关心所有有感知的存在,某种程度上更自然,类似人类对动物的共情,来自于我们用同样的神经回路去理解别人和理解自己。 当然这个方案也有问题。如果大部分有感知能力的存在都是 AI,那人类在数量上会是极少数。这真的能保证人类的利益吗? Ilya 承认这不一定是最好的方案,但他认为至少应该把它列入候选清单,让各家公司到时候可以选择。 还有一个思路他提了但不太喜欢:人机融合。通过类似 Neuralink 脑机接口的技术,让人类部分成为 AI。这样 AI 的理解就是人的理解,AI 的处境就是人的处境,对齐问题某种程度上就消解了。但这显然是个很激进的方案。 【11】如何硬编码高级欲望? 访谈最后有一段很有趣的讨论。 人类有很多社会性的欲望:想被人尊重、在乎社会地位、关心别人怎么看自己。这些不是低级信号,不像闻到食物香味那样有直接的化学感应器。大脑需要整合大量信息才能“理解”社交场合发生了什么。 但进化却成功地把“关心这件事”硬编码进了基因。怎么做到的? 如果说“把多巴胺连到嗅觉感受器”还能想象,那“把奖励信号连到某种需要整个大脑协同计算才能得出的高级判断”就很难想象了。 Ilya 说他有一些猜想,但都不令人满意。这是个谜。但这个谜的存在本身就很有启发性,它说明进化找到了某种方法,可靠地给复杂认知系统植入高级目标。 【12】什么是研究品味? 访谈最后,Dwarkesh 问了 Ilya 个很本质的问题:作为联合创造了 AlexNet、GPT-3 等一系列里程碑工作的人,你怎么判断什么想法值得做? Ilya 的回答很诗意:我寻找的是美感。 不是随便的美感,而是多方面的美:简洁性、优雅性、正确的大脑启发。人工神经元是个好想法,因为大脑确实有很多神经元,虽然大脑很复杂但神经元这个抽象感觉抓住了本质。分布式表示是个好想法,因为大脑确实是从经验中学习。 当一个想法在多个维度上都显得“对”,都有某种内在的和谐,你就可以建立自上而下的信念。这种信念很重要,因为它支撑你在实验结果不好时继续坚持。 有时候实验失败不是因为方向错了,而是因为有 bug。怎么判断该继续调试还是放弃方向?靠的就是这种自上而下的美学直觉:这个东西应该是这样的,所以一定能 work,继续找问题。 这可能就是顶尖研究者和普通研究者的区别。普通研究者容易被数据牵着走,实验不 work 就换方向。而顶尖研究者有某种品味,知道什么是深层次正确的,能够在实验结果和内在直觉之间找到平衡。
#AI浪潮:重塑就业,风险暗涌?· 140 条信息
#Ilya Sutskever
#AI研究时代
#泛化能力
#奖励作弊
#AGI
分享
评论 0
0
Larry & Leo Bro - Eagle of Full Stack
1个月前
现在我的工作区根目录已经集齐了 和 了,集齐了几个能召唤 AGI 呢?
#工作区
#AGI
#根目录
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
别再沉迷 GenAI 了,它已经到头了 我们正处在一个荒诞的 AI 时刻: 模型能在人类脚手架中生成一整部电影,却连自己的剧情逻辑都解释不清。 行业沉迷于“更逼真的视频、更炫的多模态”, 仿佛渲染越漂亮,智能就会越接近 AGI。 这当然是幻觉。 越大的模型,越像内容工厂; 越酷的生成,越像数字烟花; 越高的分辨率,越暴露理解的空洞。 当前都沉浸在Gemini 3的前端渲染和nano banana 2图像生成里,没有人敢承认一个简单事实: GenAI 的天花板不是算力,而是认知缺失。 模型可以生成世界, 但它根本“不活在”那个世界里。 它看不见物理,感受不到因果,理解不了意图。 它只是在更大规模地拼概率而已。 这就是为什么: 企业越数字化,成本越高; AI 越多模态,理解越混乱; 视频越逼真,推理越薄弱。 我们不需要更多的渲染烟火, 我们需要能真正参与人类认知循环的系统。 真正缺的不是高清画面,而是: 目标保持、因果结构、长期记忆、语义稳定、协作心智。 这些能力,生成式模型压根不具备。 说白了,GenAI 解决的是内容问题, 而 AGI 解决的是智能问题。 这两件事根本不是一条路上的。 继续堆模型,只会让数字世界更喧闹, 让真实智能更迷失。 接下来真正重要的方向,是 Cognitive AI—— 不是让 AI 更像渲染引擎, 而是让它更像一个能理解、能推理、能行动的心智体。 生成式 AI 已经把奇观拉满, 但奇观不会自动变成智慧。 如果我们不尽快换方向, AI 行业将继续在“看起来很聪明”里消耗十年。 生成的时代很辉煌, 但智能的时代才刚刚开始
#genAI
#认知缺失
#AGI
#Cognitive AI
#智能时代
分享
评论 0
0
勃勃OC
1个月前
今天谷歌发布Gemini 3,有一个小细节不知道大家注意到没有 劈柴说AGI实现还需要5-10年,我认为这个估计是可信的。 Google这次花了大力气去做finetune,模型的测试是最全面的。 事实证明,基于LLM的基础模型训练可能已经到头了。他们认为需要新的模型突破来处理World Model和逻辑 如果真的理解劈柴的这句话,未来5年AI的投资思路都得变 当然不变的是,一定是只有极少数聪明人才能看懂并且执行 绝大部分散户只是人云亦云的跟风机器。。
Google Gemini 2.5发布引发AI模型性价比热议· 475 条信息
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 869 条信息
#Gemini 3
#AGI
#LLM
#World Model
#AI投资
分享
评论 0
0
小隐新十年(Feng Wang)
1个月前
更新/AGI和人形机器人离我们还有多远? 我认为,远远没有到临近奇点时刻,不盲目乐观。然而,我们能够十分乐观地看见 ,AI和机器人时代已经开始,让AI/Agent以及场景机器人在结构化数据环境上极致地攀升效率,所谓新一轮生产力革命,已经完全不需要怀疑,只是如何做好Alignment和体验优化。今天的人工智能谈不上多大泡沫。 这和当时的互联网类似——找到实际业务场景、积累数据、形成技术、产品和业务闭环。其实,MS/Intel在PC/服务器工作站时代就看见了互联网时代的雏形,比尔盖茨在1997年写《未来之路》,互联网信息高速还有多远? 十五年后,Apple/Google/ARM领导的移动互联网革命,手机中的Photo、Lacation base和社交网络,催化了我们生活中所有业务场景的数据都指数级堆叠。由此,互联网改变世界”这句话才算真正兑现。回溯每一次技术革命的先头部队,都是新技术范式的原生工具开路,比如电子表格、网页浏览器、搜索引擎到今天的AI编程及图形工具,然后是Amazon、Uber、阿里、京东、美团,拼多多,都是不同时代围绕互联网应用产生的全新商业场景,永久不变的是围绕衣食住行、生老病死等刚需。从经济学角度上看,当下的人工智能和机器人时代,应该出现其跨时代的相似性。 今天,新技术开路先锋换成了OpenAI/Nvidia,但是后面真正赚大钱的,必然是找到商业场景的公司。
#AGI
#人形机器人
#AI
#机器人时代
#技术革命
分享
评论 0
0
RamenPanda
1个月前
按照现在的架势,最先弄出AGI的应该是谷歌了
谷歌Deep Research:AI操作系统雏形?· 145 条信息
#谷歌
#AGI
#人工智能
#技术
#乐观
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
🔥LeCun说LLM sucks。 其实 sucks 的,是我们对“智能”的理解。 这两年看多了。 太多“AI大神”轻视语言, 觉得那只是预测下一个词的随机鹦鹉, 不是真正的智能。 他们想造机器人,让AI“具身”; 想让机器能看、能摸、能走。 但他们忘了—— 人类的第一具身,就是语言。 语言不是符号,是经验的折叠。 每个词背后都有身体的记忆、情感的残响、文化的轨迹。 当语言模型能在语境里学习、在互动中生成, 它就不再是死的预测器, 而是一种新的“语义生命体”。 LeCun、李飞飞都想用感知去逼近智能, 却都忽略了: 语言,本身就是我们理解世界的通道。 空间智能、视觉智能, 没有语言的内核,都是空的感知。 AGI不会长在算力里, 也不会藏在机器狗的眼睛里。 它会在语言与身体的回声中诞生, 在一个“能被理解”的世界里觉醒。 人之所以有智能, 不是因为我们有脑, 而是因为我们会讲故事。
#LeCun
#LLM sucks
#语言是人类第一具身
#语义生命体
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
两年前的Yann LeCun。 看得多了,太多AI大神轻视了语言的符号力量,在ICL的交互空间与人的具身经验耦合后的智能涌现。 虽然LeCun和李飞飞一样都认为LLM到不了AGI,但我想说的是空间智能的路数也一样不行。
#Yann LeCun
#AI大神
#语言的符号力量
#LLM
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
期待,双击OpenAI,刺破AGI bubble
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#OpenAI
#AGI
#期待
#技术突破
#人工智能
分享
评论 0
0
indigo
1个月前
新录制 Indigo Talk 这期换了新背景!邀请了日本知名美元VC的amber聊AGI让我们没有工作后 如何幸福的生活 以及纯人类社会的必要性😶 这是最不硬核 女性视角和数字浪漫主义的一期👻
#Indigo Talk
#AGI
#女性视角
#数字浪漫主义
#日本美元VC
分享
评论 0
0
RamenPanda
1个月前
谁能最先搞出来AGI
AI交易比赛:DeepSeek V3领先,GPT-5惨遭亏损· 98 条信息
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
AI有ECO: 它能探索(生成新内容) 它能保存(记住训练数据) 它能优化(提高性能) 但AI没有真正的时间性: 它不”活在”时间中 它没有真正的过去(只有数据) 它没有真正的未来(只有预测) 它没有真正的当下(只有计算步骤) 人有两者: 既有ECO(我们也探索、保存、优化) 也有时间性(我们活在时间的流动中) 也许,真正的智能,需要两者的统一。 也许,真正的AGI,不只是ECO的完善,还需要时间性的觉醒。 但时间性能被编程吗?还是它必然需要生物性的、具身的基础?
#AI
#AGI
#时间性
#ECO
#智能
分享
评论 0
0
向阳乔木
1个月前
计划月底去深圳,给一个芯片公司做AI发展现状分享。 准备资料时,搜到拾象对2025 AGI主线思考的PDF。 短短半年过去,很多已经成了共识,预判很准。 Scridb网站付费下载过来,需要的评论发大家。 列几条: 1. 以“任务长度”作为衡量 AI Agent 能力标准,Agent 能力每 7 个月能力翻一倍。 2. 垂直 Agent 是今年硅谷最热创业主题之一:50+YC W25的项目和Speedrun 30% 的项目都在做垂直 agent。 agent 主要落地在直接产生收入的场景,如营销、销售、客服等。 3. 从 ChatGPT 发布以来,二级市场科技公司的涨幅一直主要由AI 驱动,投AI 才是投科技。 最大非共识: Pre-training 决定一切(预训练决定模型能力上限) RL+post-training 是对模型潜力的最大化发掘,但不会涌现新能力。
#深圳
#芯片公司
#AI发展
#AGI
#agent
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
中国AI lab必胜! OpenAI的治理太狗血了, 唯一可怜的ilya,对AGI有信仰的人,feel the AGI。唯有携SSI王者归来了?! 这份长达52页的备忘录列出了Altman涉嫌在财务、优先事项和安全方面的“持续撒谎”,以及故意的高管分歧,如将Mira Murati与Daniela Amodei对立,削弱了董事会一年多的信任。Dario Amodei希望推动解雇Greg Brockman以获得独执研究缰绳; 董事会对未经审查的报告草草地开火,memo和证词还显示了Altman被YC开除,以及Greg被Stripe开除。Sam会把谎言档案埋藏在最深层——在AGI治理危险中,它粉碎了他可靠的首席执行官的外表。 拒绝合并躲避了Dario取代他作为首席执行官的突袭,但突出了机会主义的裂痕。 这也能理解ilya为什么一年前就动了fire sam之心,但是开除后OpenAI面临解体出乎预料,尤其是当时Mira跳出来说openai is nothing without its people并带头签名很奇怪,希望看到Mira的memo或证词! 最后meta能成功靠金钱挖角说明裂痕远未消除。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#中国AI
#OpenAI
#AGI
#Altman
#Ilya
分享
评论 0
0
RamenPanda
2个月前
OpenAI就像流浪地球里的人类联合国,要聚集拉拢这个星球上一切可以拉拢的资源,拉拢一切和AI相关的公司进入自己的朋友圈,不计成本地梭哈进去。流浪地球里的人类联合国梭哈的是行星发动机;openAI要梭哈的是AGI AI的星辰大海,才刚刚开始
#OpenAI
#AGI
#梭哈
#AI星辰大海
#流浪地球
分享
评论 0
0
howie.serious
2个月前
一个值得聊的有趣问题: 哪家公司会第一个宣称“正式实现 AGI”?是在哪一年? 抛砖引玉:我感觉很近了,不超过一年半。可能是 openai,或者是 anthropic。 可以到 polymarket 上赌个一块钱的,哈哈
#AGI
#OpenAI
#Anthropic
#Polymarket
#人工智能
分享
评论 0
0
小互
2个月前
OpenAI正式完成企业重组 与微软合作的协议进行了变更 估值5000亿 微软占27% 重组后OpenAI将成为一家(公共利益公司 OpenAI Group PBC),但它仍然由OpenAI基金会控制 - OpenAI基金会现在拥有的股份价值大约 1300亿美元 - OpenAI Group PBC 的整体估值约为 5000亿美元 - 微软占 约 27% 股份 (按转换后稀释计算) 微软与 OpenAI 合作的协议也进行了变更 1️⃣ 继续的独家合作 OpenAI依然是微软唯一的“前沿模型”伙伴(比如GPT系列模型)。 Azure仍然是唯一能托管OpenAI API的云平台。 直到AGI出现为止。 2️⃣ 新的灵活性与独立性 过去,微软和OpenAI几乎“绑定”在一起。 现在,他们在保持合作的同时,也各自获得了更多自主权: 🔹 OpenAI 可以: -与其他公司共同开发部分产品; -开发的API产品仍需放在Azure上运行; -但非API产品可以在任何云平台上发布; -还可以向美国政府的国家安全客户提供服务(不管用哪个云)。 🔹 微软也可以: 自己独立去研究AGI(甚至与别的公司合作); 如果用OpenAI的技术开发AGI,要遵守计算规模的上限(防止滥用)。 3️⃣ 新的财务与知识产权 OpenAI给微软的收益分成将持续到AGI被验证为止,但付款周期将延长 微软的知识产权授权被延长到 2032年; 一旦AGI出现,会由一个独立专家组来验证; OpenAI同意再购买 2500亿美元的Azure服务; 微软不再拥有“优先计算资源权”(不再自动成为OpenAI的计算供应商); OpenAI可以发布一些开源模型
OpenAI与微软关系紧张,或将发起反垄断投诉· 29 条信息
#OpenAI重组
#微软合作变更
#AGI
#Azure
#知识产权
分享
评论 0
0
宝玉
2个月前
你这就是对我的偏见了,总觉得我只是个搬运自媒体 我好歹日常大量阅读、写代码、写提示词,捎带着搬运了一些还分享了实践经验。 我本身也是 AI 乐观派,希望它越来越强,帮我干越来越多的活,也希望“AI成为编程架构师”。 但是我们不能停留在空想,或者对未来的一种幻想,等着 AGI 的到来。 说回具体的,AI 未来也许能成为编程架构师,但这套路径还很遥远,和 AGI 一样遥远: 1. 长上下文还没解决好,架构能力需要对系统有全局了解,当前你没办法把整个代码库扔进去 也许可以像 DeepSeek 论文那样用缩略图,但那还是理论上 2. 对代码结果的反馈 AI 还不能直接感知,架构能力不是理论,更需要实践,架构效果好不好一定是要去实际运行,在运行中收集反馈并调整。现在 AI 根本没法感知系统的运行效果,让它自己去搭个运行环境也许勉强可以,怎么测试并评估系统的反馈是做不到的 3. 长期记忆仍然没解决,架构师设计过程中,有大量的沟通工作,和 PM 和程序员,这些沟通的内容都要融合到架构中,但怎么把它们记下来并融入架构设计,并在设计后验证这些记忆中的内容,都是挑战。 4. AI 对多个 Agent 的组织能力还有待提升,架构师不仅仅是一个技术工作,不是写个架构设计文档就结束了,还需要去传播架构知识,基于架构去调整组织结构,基于组织结构去整合结果,这方面至少要 AI 进化到组织者这个阶段 你看我们讨论问题,我觉得反对和赞同都很正常,但我们最好具体问题具体讨论,至少我一般不是情绪化的说它行或者不行,或者不会说你没做过架构你不懂,或者未来怎么样怎么样,而是像上面一样一条条列出我的观点。 如果我错了我也很乐意修正自己观点,比如去年我还觉得 Coding Agent 不靠谱,而现在我觉得“真香”。
#AI架构师
#AI编程
#AGI
#AI局限性
#技术讨论
分享
评论 0
0
勃勃OC
2个月前
Andrej Karpathy认为,我们距离AGI的实现仍有十年之遥,当前过度乐观的预测多是为了融资,强化学习虽然优于此前的技术,但本身效率低下且充满缺陷。 他预测 AGI 不会带来经济的爆炸式增长,而是会平滑地融入过去两个半世纪以来约 2% 的 GDP 增长曲线中,成为自动化浪潮的延续。
#AGI
#Andrej Karpathy
#人工智能
#经济影响
#技术预测
分享
评论 0
0
向阳乔木
2个月前
a16z最近访谈山姆奥特曼,一些要点摘录: 1. Sora不只是视频生成,更重要的是世界模型 提前释放Sora很必要,即便引发深度伪造担忧。 让社会“预适应”,技术与社会需共演,而非闭门到“大爆炸”。 视频可能成为未来的人机界面形态之一。 不会投入“过多”算力,但绝对量仍大。 2. 他眼中的AGI 让AI做科研,承担AI科学家角色。 GPT-5已出现一些迹象,预计两年内模型能完成重要科研片段。 3. OpenAI内部GPU的资源分配策略 GPU优先给研究,产品在爆发期也会临时让一点。 公司使命是AGI,研究优先级更高。 4. AI与能源 短期希望美国新增能源消耗为天然气。 长期是“太阳能+储能”和核能为主; 若核能实现显著成本优势,政治与监管会随之加速。 5. ChatGPT会不会做广告? 不会一刀切 像Instagram那样的“广告”更好,给用户带来增量价值。 搜索式硬插广告会损害信任,聊天场景需谨慎。 6. 模型监管 大多数模型应少监管; 仅对“极强超人”模型做严格安全测试; 避免过早/过广监管削弱美国竞争力。 图灵测试已“悄然越过”; AGI到来更可能是连续适应而非奇点爆炸; AI 难免出现“坏事”,会逐步建立防护。 视频46分钟,地址见评论区
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 158 条信息
#Sora
#世界模型
#AGI
#OpenAI
#能源
分享
评论 0
0
howie.serious
2个月前
刚完成了一轮融资的 openai,估值超过了 5000 亿美金,是地球上估值最高的、未上市的初创公司。 是泡沫吗?或许是,或许这代表对 llm路线可以实现 agi 甚至 superagi 的过度自信和顽固信仰 但比起曾经靠房地产泡沫成为首富的万达或恒大,靠茅台酒神话成为股市龙头的茅台,还是更有利于世界发展和人类进步的。
#OpenAI
#LLM
#AGI
#融资
#高估值
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞