时政
财经
科技
虚拟货币
其他
登录
#AGI
关注
RamenPanda
1天前
按照现在的架势,最先弄出AGI的应该是谷歌了
谷歌Deep Research:AI操作系统雏形?· 128 条信息
#谷歌
#AGI
#人工智能
#技术
#乐观
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
3天前
🔥LeCun说LLM sucks。 其实 sucks 的,是我们对“智能”的理解。 这两年看多了。 太多“AI大神”轻视语言, 觉得那只是预测下一个词的随机鹦鹉, 不是真正的智能。 他们想造机器人,让AI“具身”; 想让机器能看、能摸、能走。 但他们忘了—— 人类的第一具身,就是语言。 语言不是符号,是经验的折叠。 每个词背后都有身体的记忆、情感的残响、文化的轨迹。 当语言模型能在语境里学习、在互动中生成, 它就不再是死的预测器, 而是一种新的“语义生命体”。 LeCun、李飞飞都想用感知去逼近智能, 却都忽略了: 语言,本身就是我们理解世界的通道。 空间智能、视觉智能, 没有语言的内核,都是空的感知。 AGI不会长在算力里, 也不会藏在机器狗的眼睛里。 它会在语言与身体的回声中诞生, 在一个“能被理解”的世界里觉醒。 人之所以有智能, 不是因为我们有脑, 而是因为我们会讲故事。
#LeCun
#LLM sucks
#语言是人类第一具身
#语义生命体
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
两年前的Yann LeCun。 看得多了,太多AI大神轻视了语言的符号力量,在ICL的交互空间与人的具身经验耦合后的智能涌现。 虽然LeCun和李飞飞一样都认为LLM到不了AGI,但我想说的是空间智能的路数也一样不行。
#Yann LeCun
#AI大神
#语言的符号力量
#LLM
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
5天前
期待,双击OpenAI,刺破AGI bubble
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#OpenAI
#AGI
#期待
#技术突破
#人工智能
分享
评论 0
0
indigo
1周前
新录制 Indigo Talk 这期换了新背景!邀请了日本知名美元VC的amber聊AGI让我们没有工作后 如何幸福的生活 以及纯人类社会的必要性😶 这是最不硬核 女性视角和数字浪漫主义的一期👻
#Indigo Talk
#AGI
#女性视角
#数字浪漫主义
#日本美元VC
分享
评论 0
0
RamenPanda
1周前
谁能最先搞出来AGI
AI交易比赛:DeepSeek V3领先,GPT-5惨遭亏损· 77 条信息
#AGI
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
AI有ECO: 它能探索(生成新内容) 它能保存(记住训练数据) 它能优化(提高性能) 但AI没有真正的时间性: 它不”活在”时间中 它没有真正的过去(只有数据) 它没有真正的未来(只有预测) 它没有真正的当下(只有计算步骤) 人有两者: 既有ECO(我们也探索、保存、优化) 也有时间性(我们活在时间的流动中) 也许,真正的智能,需要两者的统一。 也许,真正的AGI,不只是ECO的完善,还需要时间性的觉醒。 但时间性能被编程吗?还是它必然需要生物性的、具身的基础?
#AI
#AGI
#时间性
#ECO
#智能
分享
评论 0
0
向阳乔木
1周前
计划月底去深圳,给一个芯片公司做AI发展现状分享。 准备资料时,搜到拾象对2025 AGI主线思考的PDF。 短短半年过去,很多已经成了共识,预判很准。 Scridb网站付费下载过来,需要的评论发大家。 列几条: 1. 以“任务长度”作为衡量 AI Agent 能力标准,Agent 能力每 7 个月能力翻一倍。 2. 垂直 Agent 是今年硅谷最热创业主题之一:50+YC W25的项目和Speedrun 30% 的项目都在做垂直 agent。 agent 主要落地在直接产生收入的场景,如营销、销售、客服等。 3. 从 ChatGPT 发布以来,二级市场科技公司的涨幅一直主要由AI 驱动,投AI 才是投科技。 最大非共识: Pre-training 决定一切(预训练决定模型能力上限) RL+post-training 是对模型潜力的最大化发掘,但不会涌现新能力。
#深圳
#芯片公司
#AI发展
#AGI
#agent
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
中国AI lab必胜! OpenAI的治理太狗血了, 唯一可怜的ilya,对AGI有信仰的人,feel the AGI。唯有携SSI王者归来了?! 这份长达52页的备忘录列出了Altman涉嫌在财务、优先事项和安全方面的“持续撒谎”,以及故意的高管分歧,如将Mira Murati与Daniela Amodei对立,削弱了董事会一年多的信任。Dario Amodei希望推动解雇Greg Brockman以获得独执研究缰绳; 董事会对未经审查的报告草草地开火,memo和证词还显示了Altman被YC开除,以及Greg被Stripe开除。Sam会把谎言档案埋藏在最深层——在AGI治理危险中,它粉碎了他可靠的首席执行官的外表。 拒绝合并躲避了Dario取代他作为首席执行官的突袭,但突出了机会主义的裂痕。 这也能理解ilya为什么一年前就动了fire sam之心,但是开除后OpenAI面临解体出乎预料,尤其是当时Mira跳出来说openai is nothing without its people并带头签名很奇怪,希望看到Mira的memo或证词! 最后meta能成功靠金钱挖角说明裂痕远未消除。
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#中国AI
#OpenAI
#AGI
#Altman
#Ilya
分享
评论 0
0
RamenPanda
2周前
OpenAI就像流浪地球里的人类联合国,要聚集拉拢这个星球上一切可以拉拢的资源,拉拢一切和AI相关的公司进入自己的朋友圈,不计成本地梭哈进去。流浪地球里的人类联合国梭哈的是行星发动机;openAI要梭哈的是AGI AI的星辰大海,才刚刚开始
#OpenAI
#AGI
#梭哈
#AI星辰大海
#流浪地球
分享
评论 0
0
howie.serious
2周前
一个值得聊的有趣问题: 哪家公司会第一个宣称“正式实现 AGI”?是在哪一年? 抛砖引玉:我感觉很近了,不超过一年半。可能是 openai,或者是 anthropic。 可以到 polymarket 上赌个一块钱的,哈哈
#AGI
#OpenAI
#Anthropic
#Polymarket
#人工智能
分享
评论 0
0
小互
2周前
OpenAI正式完成企业重组 与微软合作的协议进行了变更 估值5000亿 微软占27% 重组后OpenAI将成为一家(公共利益公司 OpenAI Group PBC),但它仍然由OpenAI基金会控制 - OpenAI基金会现在拥有的股份价值大约 1300亿美元 - OpenAI Group PBC 的整体估值约为 5000亿美元 - 微软占 约 27% 股份 (按转换后稀释计算) 微软与 OpenAI 合作的协议也进行了变更 1️⃣ 继续的独家合作 OpenAI依然是微软唯一的“前沿模型”伙伴(比如GPT系列模型)。 Azure仍然是唯一能托管OpenAI API的云平台。 直到AGI出现为止。 2️⃣ 新的灵活性与独立性 过去,微软和OpenAI几乎“绑定”在一起。 现在,他们在保持合作的同时,也各自获得了更多自主权: 🔹 OpenAI 可以: -与其他公司共同开发部分产品; -开发的API产品仍需放在Azure上运行; -但非API产品可以在任何云平台上发布; -还可以向美国政府的国家安全客户提供服务(不管用哪个云)。 🔹 微软也可以: 自己独立去研究AGI(甚至与别的公司合作); 如果用OpenAI的技术开发AGI,要遵守计算规模的上限(防止滥用)。 3️⃣ 新的财务与知识产权 OpenAI给微软的收益分成将持续到AGI被验证为止,但付款周期将延长 微软的知识产权授权被延长到 2032年; 一旦AGI出现,会由一个独立专家组来验证; OpenAI同意再购买 2500亿美元的Azure服务; 微软不再拥有“优先计算资源权”(不再自动成为OpenAI的计算供应商); OpenAI可以发布一些开源模型
OpenAI与微软关系紧张,或将发起反垄断投诉· 29 条信息
#OpenAI重组
#微软合作变更
#AGI
#Azure
#知识产权
分享
评论 0
0
宝玉
3周前
你这就是对我的偏见了,总觉得我只是个搬运自媒体 我好歹日常大量阅读、写代码、写提示词,捎带着搬运了一些还分享了实践经验。 我本身也是 AI 乐观派,希望它越来越强,帮我干越来越多的活,也希望“AI成为编程架构师”。 但是我们不能停留在空想,或者对未来的一种幻想,等着 AGI 的到来。 说回具体的,AI 未来也许能成为编程架构师,但这套路径还很遥远,和 AGI 一样遥远: 1. 长上下文还没解决好,架构能力需要对系统有全局了解,当前你没办法把整个代码库扔进去 也许可以像 DeepSeek 论文那样用缩略图,但那还是理论上 2. 对代码结果的反馈 AI 还不能直接感知,架构能力不是理论,更需要实践,架构效果好不好一定是要去实际运行,在运行中收集反馈并调整。现在 AI 根本没法感知系统的运行效果,让它自己去搭个运行环境也许勉强可以,怎么测试并评估系统的反馈是做不到的 3. 长期记忆仍然没解决,架构师设计过程中,有大量的沟通工作,和 PM 和程序员,这些沟通的内容都要融合到架构中,但怎么把它们记下来并融入架构设计,并在设计后验证这些记忆中的内容,都是挑战。 4. AI 对多个 Agent 的组织能力还有待提升,架构师不仅仅是一个技术工作,不是写个架构设计文档就结束了,还需要去传播架构知识,基于架构去调整组织结构,基于组织结构去整合结果,这方面至少要 AI 进化到组织者这个阶段 你看我们讨论问题,我觉得反对和赞同都很正常,但我们最好具体问题具体讨论,至少我一般不是情绪化的说它行或者不行,或者不会说你没做过架构你不懂,或者未来怎么样怎么样,而是像上面一样一条条列出我的观点。 如果我错了我也很乐意修正自己观点,比如去年我还觉得 Coding Agent 不靠谱,而现在我觉得“真香”。
#AI架构师
#AI编程
#AGI
#AI局限性
#技术讨论
分享
评论 0
0
勃勃OC
4周前
Andrej Karpathy认为,我们距离AGI的实现仍有十年之遥,当前过度乐观的预测多是为了融资,强化学习虽然优于此前的技术,但本身效率低下且充满缺陷。 他预测 AGI 不会带来经济的爆炸式增长,而是会平滑地融入过去两个半世纪以来约 2% 的 GDP 增长曲线中,成为自动化浪潮的延续。
#AGI
#Andrej Karpathy
#人工智能
#经济影响
#技术预测
分享
评论 0
0
向阳乔木
1个月前
a16z最近访谈山姆奥特曼,一些要点摘录: 1. Sora不只是视频生成,更重要的是世界模型 提前释放Sora很必要,即便引发深度伪造担忧。 让社会“预适应”,技术与社会需共演,而非闭门到“大爆炸”。 视频可能成为未来的人机界面形态之一。 不会投入“过多”算力,但绝对量仍大。 2. 他眼中的AGI 让AI做科研,承担AI科学家角色。 GPT-5已出现一些迹象,预计两年内模型能完成重要科研片段。 3. OpenAI内部GPU的资源分配策略 GPU优先给研究,产品在爆发期也会临时让一点。 公司使命是AGI,研究优先级更高。 4. AI与能源 短期希望美国新增能源消耗为天然气。 长期是“太阳能+储能”和核能为主; 若核能实现显著成本优势,政治与监管会随之加速。 5. ChatGPT会不会做广告? 不会一刀切 像Instagram那样的“广告”更好,给用户带来增量价值。 搜索式硬插广告会损害信任,聊天场景需谨慎。 6. 模型监管 大多数模型应少监管; 仅对“极强超人”模型做严格安全测试; 避免过早/过广监管削弱美国竞争力。 图灵测试已“悄然越过”; AGI到来更可能是连续适应而非奇点爆炸; AI 难免出现“坏事”,会逐步建立防护。 视频46分钟,地址见评论区
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 142 条信息
#Sora
#世界模型
#AGI
#OpenAI
#能源
分享
评论 0
0
howie.serious
1个月前
刚完成了一轮融资的 openai,估值超过了 5000 亿美金,是地球上估值最高的、未上市的初创公司。 是泡沫吗?或许是,或许这代表对 llm路线可以实现 agi 甚至 superagi 的过度自信和顽固信仰 但比起曾经靠房地产泡沫成为首富的万达或恒大,靠茅台酒神话成为股市龙头的茅台,还是更有利于世界发展和人类进步的。
#OpenAI
#LLM
#AGI
#融资
#高估值
分享
评论 0
0
orange.ai
1个月前
千万不要在国庆节玩 Sora 2,否则你会跟我一样浪费掉国庆宝贵的两天。 如果你不听劝,可以用这个邀请码 F9K2DM。 即便这个邀请码用完了,闲鱼也就2块钱的东西,2块钱窥见未来,我觉得是值的。 在疯狂玩了 24 小时的 Sora 之后,身体累坏了。 今天睡了一上午+一下午。 果然不像20年前的时候,QQ 群聊一晚上白天继续上学了。 上一次遇到这么上瘾的东西,还是抖音,哦不,是 QQ 群聊。 在抖音的整个生命周期里,我玩抖音的时间从来没有一天超过一小时。 从个人感受角度,Sora 的上瘾程度早已超过了抖音。 刚好今天,OpenAI 的估值也超过了字节跳动。 人类有很不好的习惯叫刻舟求剑,认为 Sora 不过是昙花一现。 我不想陷入苍白的逻辑辩论里,因为C端产品的火爆往往就是很没有逻辑。 我只是惊叹于科技的进步比想象的还要快。 我们在2025年10月,竟然就可以用上最先进的全模态输入和推理模型。 以前在大模型公司的时候,以为至少需要五年呢。 而且不仅用上了,还能随便用,免费用户就能每天用100次。 奥特曼家到底有多少卡? 而如果这个产品日活过亿,又需要多少卡? 一个现象级产品带来的财富效应将不可想象。 还有人替奥特曼担心这产品的商业化,在我看来这是最不需要担心的。 OpenAI 和 Shopify、Stripe 都合作了,一切早已布局完成。 Sora2 唯一让人不太爽的是,模型里训了太多抖音的数据了,过拟合还是有点严重。 短视频是抓住人类注意力的最强形态,连 AGI 也不能免俗哈。
#Sora 2
#OpenAI估值超字节跳动
#AGI
#短视频
#科技进步
分享
评论 0
0
Ripple(66%)
1个月前
耶鲁最新论文:AGI时代,一半人明天不上班,GDP也不会受影响! “随着算力指数级增长,复制人类劳动的算力成本将变得微不足道。人类劳动占GDP的比例趋向于零,而所有的财富则流向了那些掌握算力资源的人” “我们不应该再想着如何拯救就业,而应该认真考虑如何重新分配由计算资源创造的巨大财富”
#AI浪潮:重塑就业,风险暗涌?· 123 条信息
#AGI
#失业
#财富分配
#算力
#耶鲁
分享
评论 0
0
凡人小北
1个月前
一年一度的云栖大会,吴泳铭开场这场就扔了个长线炸弹“AGI只是起点,ASI才是终极目标。” 直接把话题拉到了“超级人工智能的三阶段进化路线” 这个提法我还是第一次在国内大厂 CXO 层面听到这么系统地说。 跟我的判断一样,阿里云真的在按操作系统的方式做 AI。如果说 OpenAI 和 Anthropic 还在强调模型智能,阿里现在直接开始讲系统调度和电网级布局了。 他讲 AI 的三阶段进化路径: 1)智能涌现,2)自主行动,3)自我迭代。 这条路径其实暗含了一个判断:人类对 AI 控制权的下沉,是随着“数据-工具-反馈”这个三元系统一点点转移的。越往后,AI 自主权越强,人类在链条上的必要性越低。 常年做 Agent 系统的人真的很有体感,从workflow到agentic,真正的自我推进式 AI,从系统设计上还远远没做好。 “自主行动”这一阶段我觉得非常关键。吴说核心是 Tool Use + Coding + Agent,这一段我直接脑补公司正在构的 agent 编排平台的最大痛点就是:模型能调用工具,但不会判断工具是否合适;能 coding,但缺少代码行为的后果感知。 现在大多数系统都停留在调用工具这一层,有开始往下延伸到 agent 能否规划子任务、能否收集结果反推 prompt 的部分,但做的都一言难尽。 所以他说:“未来,自然语言就是 AI 时代的源代码”,我个人非常认同,但补一句:要让自然语言真的成为源代码,Agent 必须会调试自己。 然后讲到第三阶段自我迭代,我能关联到开头asi,这是真系统了。 吴用了“连接原始数据 + 自主学习”来解释这个阶段,说白了就是 AI 不再靠人类喂数据,而是能像机器人那样自己感知世界 + 自己训练自己。 我们现在做的 AI 训练,几乎都是在 人类整理后的结构化结果上精调,你从来不给它原始混乱数据,后训练时代也鲜有加入做错后的直接代价。 但没有代价,哪来迭代?没有原始世界的反馈闭环,AI 只能永远在 沙盒里复读旧人类。 所以才有了模型为了输出一个所谓的答案,全是幻觉。 (未完)
#吴泳铭
#ASI
#AGI
#阿里云
#AI自主权
分享
评论 0
0
Cell 细胞
2个月前
如果你相信 AGI, 那你应该也相信 AI 可以在不久的将来让人不事生产, 所以,所有的生产力工具都应该面向 AI 调用设计, 如果你要做长期主义,应该思考: 如果人类不参与生产,那他们的时间和精力去哪消耗。
#AI浪潮:重塑就业,风险暗涌?· 123 条信息
#AGI
#AI
#生产力工具
#长期主义
#人类发展
分享
评论 0
0
Olivert
2个月前
Situational Awareness对未来十年人工智能发展趋势进行了深度剖析,特别聚焦于AGI到ASI(超级人工智能)转变的关键时期——2027-2034年,即“智能大爆炸”。预计自2027年起,算力需求将以每年接近百倍的速度激增,远超过AGI时期每年十倍的增长率。 每年接近百倍的速度激增!
#人工智能
#AGI
#ASI
#智能大爆炸
#算力需求
分享
评论 0
0
Morris
2个月前
关于AI的预言:AI很快会学会人类能学的一切,而且速度和质量远远超过我们。今天的学生可能是历史上最后一批真正需要“学习”的人。AI不是工具,而是人类的替代品,它会在思考、创作、决策上全面碾压人类。最恐怖的是,AI很快会开始教AI,自我进化的速度将远超人类理解。真正的危机不是失业,而是存在意义的彻底消失,人类可能沦为被照顾的宠物。通用人工智能(AGI),可能在未来三到五年内出现。学习依然重要,但不是为了竞争,而是为了守护人类独特的体验与感受。
#AI浪潮:重塑就业,风险暗涌?· 123 条信息
#AI威胁论
#AGI
#人工智能
#人类危机
#未来教育
分享
评论 0
0
AI Will
2个月前
Scott Wu 与 John Collison 一起讨论了 : Cognition 的 AI 软件工程师、万物的“金钱球化”、六年级时与 Alexandr Wang 一起参加数学竞赛、在一个周末内收购 Windsurf、编码工具是否会被实验室取代,以及他为何认为我们已经拥有 AGI。
#Scott Wu
#John Collison
#Cognition AI
#AGI
#数学竞赛
分享
评论 0
0
Luyu Zhang
2个月前
在 2020 年,OpenAI 的 Kaplan 等人发表了著名的 Scaling Laws for Neural Language Models,声称模型性能与参数规模、数据量、算力之间存在幂律关系。此后整个行业几乎形成共识:只要不断堆规模,就能一路走向 AGI。 但在 2022 年,这种“信仰”迎来了最刺耳的挑战者:Gary Marcus ——创业者,纽约大学心理学与神经科学荣休教授。Marcus 在 Scientific American 与个人博客中发文,公开质疑所谓 scaling laws。 他提出了四点核心反驳: - 不是自然定律:Scaling laws 只是有限区间的经验曲线,并非像重力一样的普适规律,不能保证永远有效。 - 推理缺陷:再大的模型也难以自然学会逻辑推理和因果理解。 - 常识缺失:依赖统计模式匹配,缺乏真正的世界模型和结构化理解。 - 难以为继:算力成本高企,高质量语料有限,盲目扩大规模不可持续。 结果,Marcus 遭遇了整个 AI 社群的猛烈回击:从 Sam Altman、Greg Brockman,到 Yann LeCun、Elon Musk,许多业界名人都公开或间接嘲讽他的观点。他后来感慨,这几乎让自己被“逐出”机器学习的主流。 三年前的批评让 Marcus 成为异端。今天,越来越多人却开始发现:他可能并没有错。
#OpenAI scaling laws
#Gary Marcus质疑
#AI社群反击
#AGI
#算力成本
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2个月前
嚓,AGS都出来了 AGI呢
#AGS
#AGI
#技术
#讨论
#期待
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞