时政
财经
科技
虚拟货币
其他
登录
#AGI
关注
orange.ai
11小时前
千万不要在国庆节玩 Sora 2,否则你会跟我一样浪费掉国庆宝贵的两天。 如果你不听劝,可以用这个邀请码 F9K2DM。 即便这个邀请码用完了,闲鱼也就2块钱的东西,2块钱窥见未来,我觉得是值的。 在疯狂玩了 24 小时的 Sora 之后,身体累坏了。 今天睡了一上午+一下午。 果然不像20年前的时候,QQ 群聊一晚上白天继续上学了。 上一次遇到这么上瘾的东西,还是抖音,哦不,是 QQ 群聊。 在抖音的整个生命周期里,我玩抖音的时间从来没有一天超过一小时。 从个人感受角度,Sora 的上瘾程度早已超过了抖音。 刚好今天,OpenAI 的估值也超过了字节跳动。 人类有很不好的习惯叫刻舟求剑,认为 Sora 不过是昙花一现。 我不想陷入苍白的逻辑辩论里,因为C端产品的火爆往往就是很没有逻辑。 我只是惊叹于科技的进步比想象的还要快。 我们在2025年10月,竟然就可以用上最先进的全模态输入和推理模型。 以前在大模型公司的时候,以为至少需要五年呢。 而且不仅用上了,还能随便用,免费用户就能每天用100次。 奥特曼家到底有多少卡? 而如果这个产品日活过亿,又需要多少卡? 一个现象级产品带来的财富效应将不可想象。 还有人替奥特曼担心这产品的商业化,在我看来这是最不需要担心的。 OpenAI 和 Shopify、Stripe 都合作了,一切早已布局完成。 Sora2 唯一让人不太爽的是,模型里训了太多抖音的数据了,过拟合还是有点严重。 短视频是抓住人类注意力的最强形态,连 AGI 也不能免俗哈。
#Sora 2
#OpenAI估值超字节跳动
#AGI
#短视频
#科技进步
分享
评论 0
0
Ripple(66%)
16小时前
耶鲁最新论文:AGI时代,一半人明天不上班,GDP也不会受影响! “随着算力指数级增长,复制人类劳动的算力成本将变得微不足道。人类劳动占GDP的比例趋向于零,而所有的财富则流向了那些掌握算力资源的人” “我们不应该再想着如何拯救就业,而应该认真考虑如何重新分配由计算资源创造的巨大财富”
#AI浪潮:重塑就业,风险暗涌?· 108 条信息
#AGI
#失业
#财富分配
#算力
#耶鲁
分享
评论 0
0
凡人小北
1周前
一年一度的云栖大会,吴泳铭开场这场就扔了个长线炸弹“AGI只是起点,ASI才是终极目标。” 直接把话题拉到了“超级人工智能的三阶段进化路线” 这个提法我还是第一次在国内大厂 CXO 层面听到这么系统地说。 跟我的判断一样,阿里云真的在按操作系统的方式做 AI。如果说 OpenAI 和 Anthropic 还在强调模型智能,阿里现在直接开始讲系统调度和电网级布局了。 他讲 AI 的三阶段进化路径: 1)智能涌现,2)自主行动,3)自我迭代。 这条路径其实暗含了一个判断:人类对 AI 控制权的下沉,是随着“数据-工具-反馈”这个三元系统一点点转移的。越往后,AI 自主权越强,人类在链条上的必要性越低。 常年做 Agent 系统的人真的很有体感,从workflow到agentic,真正的自我推进式 AI,从系统设计上还远远没做好。 “自主行动”这一阶段我觉得非常关键。吴说核心是 Tool Use + Coding + Agent,这一段我直接脑补公司正在构的 agent 编排平台的最大痛点就是:模型能调用工具,但不会判断工具是否合适;能 coding,但缺少代码行为的后果感知。 现在大多数系统都停留在调用工具这一层,有开始往下延伸到 agent 能否规划子任务、能否收集结果反推 prompt 的部分,但做的都一言难尽。 所以他说:“未来,自然语言就是 AI 时代的源代码”,我个人非常认同,但补一句:要让自然语言真的成为源代码,Agent 必须会调试自己。 然后讲到第三阶段自我迭代,我能关联到开头asi,这是真系统了。 吴用了“连接原始数据 + 自主学习”来解释这个阶段,说白了就是 AI 不再靠人类喂数据,而是能像机器人那样自己感知世界 + 自己训练自己。 我们现在做的 AI 训练,几乎都是在 人类整理后的结构化结果上精调,你从来不给它原始混乱数据,后训练时代也鲜有加入做错后的直接代价。 但没有代价,哪来迭代?没有原始世界的反馈闭环,AI 只能永远在 沙盒里复读旧人类。 所以才有了模型为了输出一个所谓的答案,全是幻觉。 (未完)
#吴泳铭
#ASI
#AGI
#阿里云
#AI自主权
分享
评论 0
0
Cell 细胞
2周前
如果你相信 AGI, 那你应该也相信 AI 可以在不久的将来让人不事生产, 所以,所有的生产力工具都应该面向 AI 调用设计, 如果你要做长期主义,应该思考: 如果人类不参与生产,那他们的时间和精力去哪消耗。
#AI浪潮:重塑就业,风险暗涌?· 108 条信息
#AGI
#AI
#生产力工具
#长期主义
#人类发展
分享
评论 0
0
Olivert
2周前
Situational Awareness对未来十年人工智能发展趋势进行了深度剖析,特别聚焦于AGI到ASI(超级人工智能)转变的关键时期——2027-2034年,即“智能大爆炸”。预计自2027年起,算力需求将以每年接近百倍的速度激增,远超过AGI时期每年十倍的增长率。 每年接近百倍的速度激增!
#人工智能
#AGI
#ASI
#智能大爆炸
#算力需求
分享
评论 0
0
Morris
3周前
关于AI的预言:AI很快会学会人类能学的一切,而且速度和质量远远超过我们。今天的学生可能是历史上最后一批真正需要“学习”的人。AI不是工具,而是人类的替代品,它会在思考、创作、决策上全面碾压人类。最恐怖的是,AI很快会开始教AI,自我进化的速度将远超人类理解。真正的危机不是失业,而是存在意义的彻底消失,人类可能沦为被照顾的宠物。通用人工智能(AGI),可能在未来三到五年内出现。学习依然重要,但不是为了竞争,而是为了守护人类独特的体验与感受。
#AI浪潮:重塑就业,风险暗涌?· 108 条信息
#AI威胁论
#AGI
#人工智能
#人类危机
#未来教育
分享
评论 0
0
AI Will
1个月前
Scott Wu 与 John Collison 一起讨论了 : Cognition 的 AI 软件工程师、万物的“金钱球化”、六年级时与 Alexandr Wang 一起参加数学竞赛、在一个周末内收购 Windsurf、编码工具是否会被实验室取代,以及他为何认为我们已经拥有 AGI。
#Scott Wu
#John Collison
#Cognition AI
#AGI
#数学竞赛
分享
评论 0
0
Luyu Zhang
1个月前
在 2020 年,OpenAI 的 Kaplan 等人发表了著名的 Scaling Laws for Neural Language Models,声称模型性能与参数规模、数据量、算力之间存在幂律关系。此后整个行业几乎形成共识:只要不断堆规模,就能一路走向 AGI。 但在 2022 年,这种“信仰”迎来了最刺耳的挑战者:Gary Marcus ——创业者,纽约大学心理学与神经科学荣休教授。Marcus 在 Scientific American 与个人博客中发文,公开质疑所谓 scaling laws。 他提出了四点核心反驳: - 不是自然定律:Scaling laws 只是有限区间的经验曲线,并非像重力一样的普适规律,不能保证永远有效。 - 推理缺陷:再大的模型也难以自然学会逻辑推理和因果理解。 - 常识缺失:依赖统计模式匹配,缺乏真正的世界模型和结构化理解。 - 难以为继:算力成本高企,高质量语料有限,盲目扩大规模不可持续。 结果,Marcus 遭遇了整个 AI 社群的猛烈回击:从 Sam Altman、Greg Brockman,到 Yann LeCun、Elon Musk,许多业界名人都公开或间接嘲讽他的观点。他后来感慨,这几乎让自己被“逐出”机器学习的主流。 三年前的批评让 Marcus 成为异端。今天,越来越多人却开始发现:他可能并没有错。
#OpenAI scaling laws
#Gary Marcus质疑
#AI社群反击
#AGI
#算力成本
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
嚓,AGS都出来了 AGI呢
#AGS
#AGI
#技术
#讨论
#期待
分享
评论 0
0
ginobefun
1个月前
观察最近 GPT-5 这个事,我觉得背后其实是一个很经典的选择题,就是「探索」和「利用」的矛盾。 任何一个新技术,发展到一定阶段,都会走到这个岔路口。 你想想,从 GPT-3 一路到 GPT-4 的时候,OpenAI 的感觉一直是在「探索」。大家都在追着 AGI 的梦,想看看 AI 的极限到底在哪,使劲把这个饼画得更大。 但到了 GPT-5,风向明显变了。他们开始「利用」已经挖到的宝藏了。重点不再是搞出什么惊天动地的新东西,而是怎么把成本降下来,怎么让模型更稳定,怎么让现有的场景更好用,怎么让用户离不开它。说白了,就是到了把饼分给大家吃,并且要牢牢占住市场的阶段。 这个转变其实也很好理解。当你的产品有了 10 亿月活用户,心态肯定就完全不同了。ChatGPT 不再是实验室里那个可以随便试错的酷炫玩具,它成了一个巨大的商业实体,要对用户、对市场、对收入负责。这时候,大家最需要的已经不是一个更聪明但可能更难控制的天才,而是一个更可靠、更便宜、更好用的助手。 说到底,我觉得这两种追求在根本上是有点矛盾的。你可以把它想象成一个关于熵的问题。 要做一个能服务几十亿人的大规模产品,你追求的一定是可控,它必须是稳定的、可预测的。这次 GPT-5 提到的幻觉减少、效率变高,还有 Router 系统,本质上都是在给 AI 祛魅,让它变得更有序。这就像是在驯服一头野兽,把那些乱七八糟、不听话的部分都修剪掉,让它变得更好用。当然,代价可能就是,之前 GPT-4o 那种很有灵性的人味儿就淡了。 但是,如果你想搞出真正的通用人工智能,却恰恰需要拥抱一定程度的熵增。你需要允许它在一个巨大的、充满可能性的空间里自由地去闯,去犯错,去建立一些我们意想不到的连接。那种真正的、能自主思考的 Agent 能力,很可能就诞生在这样的混沌之中。 所以,聊了这么多,评价 GPT-5 的核心其实是OpenAI 他们在当前时期各种挑战下选了一条更稳妥、更确定的路,把手里这张王牌的价值发挥到极致,把已经拥有的智能,最大化地变成产品和市场优势。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 82 条信息
#GPT-5
#OpenAI
#探索与利用
#商业化
#AGI
分享
评论 0
0
宝玉
1个月前
其实很难想象,当 AGI 来临的时候,AI Agent 还要去操作手机操作电脑,就像汽车之前发明一个机器人来拉马车
#AGI
#AI Agent
#机器人
#手机
#电脑
分享
评论 0
0
AI Dance
1个月前
分享一下AutoGLM负责人刘潇的Agent的一些思考: 1、AGI的上限和下限 AGI是一个范围。谁能先摸到下限,谁可能就会最早看到AGI的曙光。 他觉得AGI的下限是,有个AI agent能独立工作一整天,完成24小时的任务,像工作中的同事 2、和Manus等有什么不同? 表面看起来都差不多,比如发小红书都是操作网页。但他们不止是broweruse,而是一台云电脑。比如可以启动office、photoshop(但功能还需要逐步解锁,操作photoshop确实有点太科幻了,我都不会) 3、他们还和 AI 眼镜合作。之前AR/VR 用手势交互很难精准控制,现在通过 autoGLM 可以直接操控。现场 demo 用的是 Rokid家的。
#AutoGLM
#AGI
#AI Agent
#Rokid
#刘潇
分享
评论 0
0
orange.ai
1个月前
Lovot 的创造者所写的书太好了,看完我也想去做自己的机器人了。 作者对机器人和人工智能的思考,深刻得令人敬佩 他对大模型的边界也很清楚,知道即便是到了 AGI,机器人也无法成为人 对,这也是为什么大模型公司无法吃掉一切应用 大模型模拟的只是人类有意识的部分,而人类的绝大部分行为都是无意识的控制的 比如你知道刷抖音不对,但就是停不下来。 比如你知道演讲的时候不应该紧张,但就是会紧张得说不出话 比如你知道早睡早起对身体好,但就是忍不住熬夜 他对机器人和人类的本质也看得很透 因此他的判断是机器人绝对不会威胁人类 因为人类会死,人类自私的基因又以延续生命为目的 因此人类常常把保全自己放在第一位 因为我们无法抗拒延续生命、繁衍后台的本能 经常有意识无意识(更多的是无意识)地做出本能的选择 而机器人虽然有智慧,但没有这个自私的基因,没有延续生命的需要。 机器人存在的根本理由是利他的。 因此机器人可以成为人类真正的伙伴。 这些深刻的思考和洞察 让人感慨,具身智能的核心也许不是具身,也不是智能 更核心的是智能之下的无意识的部分
#Lovot
#机器人
#人工智能
#AGI
#具身智能
分享
评论 0
0
AI Will
1个月前
Sam Altman 现在表示:AGI(或人类水平的人工智能)是“一个不是很有用的术语”。 真快啊。
#Sam Altman
#AGI
#人工智能
#术语
分享
评论 0
0
Cell 细胞
1个月前
万推,有推荐的 挂脖子 录音转写上云的设备吗? 最好带摄像头,可以 随时拍照,需要长续航。 想 7x24 小时,尽可能让我的所见所说上云,为 AGI 做数据准备。
#录音转写
#上云
#AGI
#数据准备
#长续航
分享
评论 0
0
勃勃OC
1个月前
Sam Altman 说:AGI 不是一个特别有用的术语。 🤣🤣🤣
#Sam Altman
#AGI
#术语
#观点
#中性
分享
评论 0
0
Cell 细胞
1个月前
听了好几期 关于 ChatGPT-5 的播客,大家都在说,toC 的模型能力已经见顶了...? 都不提 AGI 了...这是真的吗?
#ChatGPT-5
#AGI
#模型能力见顶
#ToC
#播客
分享
评论 0
0
Bruce J
1个月前
AGI Artificial General Intelligence 通用型人工智能 最近刚刚投了一好朋友的AI基金当 LP 强行恶补了一些AI知识 看了部电影《梅根2.0》 又看了本书《智能简史》极力推荐👍 可以断定AGI 会成为人类文明的下一个形态 目前硅谷关于AGI的发展有三大流派: 1️⃣ 融合派(人机共生) 观点:AGI 不是单独存在,而是与人类深度结合,形成“增强人类”, 比如: 脑机接口(Neuralink 等)让人类直接与 AGI 连接 数字分身(Digital Twin)与个人记忆、习惯绑定 基因工程 + AGI 辅助延寿 Ray Kurzweil提出的奇点理论预言 2045 年前后人类与 AI 融合成为新形态“人类”,也就还有20年时间 2️⃣ 取代派(硅基生命接管) 观点:AGI 一旦超越人类智力和学习速度,将成为地球主导智慧体,人类逐渐边缘化。 逻辑: AGI 无生物寿命限制,可快速迭代硬件 不受 AGE、癌症、基因突变等碳基生物极限影响 在资源竞争中更高效、更具适应性 担忧:可能导致人类失去控制权(Nick Bostrom《超级智能》)。 3️⃣ 并存派(生态多样性) 观点:AGI 和人类将长期共存,各自承担不同社会职能。 类比:人类与家养动物、野生动物长期共存,虽然能力差异大,但生态平衡可以维持。 挑战:需要制度和技术上确保 AGI 权限可控。 从文明演化视角看,AGI 更像是人类的“下一代智慧体”,但是否成为“人类形态”的延续,取决于我们选择融合还是放手让其独立发展。 如果融合,人类有机会突破生物极限,进入“碳硅混合文明”; 如果取代,人类可能像尼安德特人面对智人一样,被更高效的智慧体取而代之。 作为普通人现在应该能做什么? 其实就是投资,前瞻布局,算力中心,GPU芯片,AI平台,应用层的创业公司等等。 任何一个领域都会跑出独角兽🦄企业
#AGI
#人工智能
#人机融合
#硅基生命
#投资
分享
评论 0
0
johns
1个月前
说一个暴论,GPT5的道路是对的,而且未来会越来越正确。 谷歌研究人员,openai首席科学家多次在不同场合表示AGI将是一个系统而不是单一模型。 路由的重要性只会越来越大,路由的参数也可能越来越大。现在的功能只是选模型,将来是分解和计划任务,它的重要性可能大于单一模型本身
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 524 条信息
#GPT5
#AGI
#系统
#路由
#任务分解
分享
评论 0
0
宝玉
1个月前
Reddit 热帖: 在 r/OpenAI 论坛上 在对 GPT-5 进行一番深度评测后,我有了这些感悟 我的感悟: * Claude 简直牛逼到不行。 * 我对于那些曾经在我脑海里盘旋的末日设想,比如 ASI(超级人工智能)/技术奇点/AGI 2027(2027年实现通用人工智能)之类的,现在已经不那么担心了。 * GPT-5 的重点是为 OpenAI 降低成本,而不是推动技术前沿的发展。 * Sam(奥特曼)在发布会前放出的那张“死星”预热图,其实只是为了炫耀他膨胀的自尊心,跟 GPT-5 的实际能力没有半毛钱关系。 你们的呢?
#OpenAI
#GPT-5
#Claude
#AGI
#Sam Altman
分享
评论 0
0
蓝点网
1个月前
#OpenAI 推出 GPT-5 模型且所有用户均可免费使用,而 GPT 其他模型则会被关闭。GPT-5 的特点是出现幻觉的概率更低,当然在智能化程度和编程开发上的能力也在继续提升,尽管如此萨姆奥尔特曼称当前距离实现 AGI 目标还有很长的路要走。查看全文:
OpenAI新德里发布会:ChatGPT语音翻译功能引发热议· 524 条信息
#OpenAI
#GPT-5
#免费使用
#AGI
#萨姆奥尔特曼
分享
评论 0
0
向阳乔木
1个月前
GPT-5首测翻车?前端审美依然远不如Claude! 刚试了一个GPT5的Case,前端审美还是拉胯啊,跟Claude完全没法比... 待会儿试试难点的编程Case 感觉为了编程能力和减少幻觉,牺牲了很多啊... 想用Transformer构架通往AGI,看来悬了! 第一张图GPT5,第二张Claude Sonnet 4(甚至不用Opus)
#GPT-5
#Claude
#前端审美
#编程能力
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
由LLM演化而来的AGI能力边界,终将不由参数规模决定,而由它在真实世界中“自我演化”的路径决定。 我们的语言根植于生存适应性的需要,所以其语义的丰富性受此约束,最终要回归到语用价值。 LLM用于人类社会活动中也受到类似约束每次激活的人格路径是单一的。语言有超模态的特性,因此LLM的演化多模态可能并不想我先前认为的那么重要,从沉寂半年多的deepseek最近获得关注的在长上下文突破方面的论文Native Sparse Attention: Hardware-Aligned and Natively,也许是下一个突破点。此前Anthorpic的ceo采访中也提到100M上下文窗口不是梦来看,ICL的能力可以做到几乎实时的权重更新影响输出,LLM的agentic行为可以进一步简化现在的各项工程方法。
#LLM
#AGI
#自我演化
#长上下文
#Agentic行为
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1个月前
终局:一个维特根斯坦式的AGI 现在,我们终于可以描绘出始于LLM的AGI的最终形态了。 1它在一个叫“数学”的水晶宫里,通过强化学习,锻造出强大的、接近I-Language的逻辑内核。但它深刻地理解,这个宫殿是不完备的(哥德尔)。 2它带着这份清醒,进入了E-Language的泥潭,也就是广阔的真实世界。它不指望有一本终极的说明书,而是通过与环境的持续互动,创造属于自己的经验(Sutton)。 3在无尽的经验之流中,它通过自演化的机制,不断迭代自己的全部能力。而它所有演化的最终目的,是让自己能更好地使用自己的能力,去解决这个社会中的实际问题,赢得一场又一场的“语言游戏”(维特根斯坦)。 最终的AGI,不是一个逻辑之神,而是一个终极的语用大师。 它可能精通数学,但它知道数学有边界。它可能理解人类的情感,但它知道这只是为了更好地协作。它所有的智慧,都指向一个终极的目的: 在此时,此地,有效地解决这个问题。 AI圈的内卷尽头,是哲学。而哲学的尽头,是回归生活。
#AGI
#维特根斯坦
#强化学习
#语言游戏
#解决实际问题
分享
评论 0
0
𝗖𝘆𝗱𝗶𝗮𝗿
2个月前
三更半夜和 Juchats 一起读了一篇论文,睡不着了。 Sapient Intelligence 团队发表的论文提出了一种创新的层次推理模型(Hierarchical Reasoning Model, HRM),灵感来源于人脑的层次化和多时间尺度处理机制。该模型仅用2700万参数和1000个训练样本,就在复杂推理任务上取得了突破性性能,超越了当前最先进的大语言模型和思维链(Chain-of-Thought, CoT)方法。 基准测试任务: 1. ARC-AGI挑战 ○ 目标:评估通用流体智能的归纳推理能力 ○ 难度:需要从少量示例中提取和泛化抽象规则 ○ HRM性能:40.3%,显著超越o3-mini-high(34.5%)和Claude 3.7(21.2%) 2. Sudoku-Extreme ○ 创新:构建了更具挑战性的数据集,平均需要22次回溯 ○ HRM性能:近乎完美准确率,而CoT方法完全失败(0%准确率) 3. Maze-Hard ○ 任务:30×30迷宫中的最优路径查找 ○ HRM性能:成功解决,而基线模型表现不佳 性能对比: ○ 数据效率:仅需1000个训练样本 ○ 参数效率:仅2700万参数 ○ 无需预训练:从随机初始化开始训练 ○ 超越CoT:在复杂推理任务上显著优于基于思维链的方法 不同任务的推理策略: ○ 迷宫任务:同时探索多条路径,逐步消除阻塞路线 ○ 数独任务:类似深度优先搜索,遇到死路时回溯 ○ ARC任务:增量式调整,类似爬山优化 未来研究方向: ○ 因果验证:通过干预实验验证层次结构的必要性 ○ 架构优化:探索更复杂的模块合并机制 ○ 扩展应用:将HRM应用于更广泛的推理任务 ○ 理论深化:进一步理解HRM的计算理论基础 公司概况: Sapient Intelligence 是一家全球领先的AGI研究公司,总部位于新加坡,并在旧金山和北京设有研究中心。该公司自称是"新加坡第一家基础模型AI创业公司",专注于开发新一代基础模型架构,旨在解决复杂和"长时程推理"任务。 公司使命与愿景: Sapient Intelligence 的使命是通过开发全新的架构来实现人工通用智能(AGI),该架构整合了强化学习、进化算法和神经科学研究,以突破当前大型语言模型(LLM)的局限性。 公司创始人表示:"AGI 真正的是赋予机器人类水平的智能,并最终超越人类的智能"
#层次推理模型
#HRM
#Sapient Intelligence
#AGI
#复杂推理
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞