时政
财经
科技
虚拟货币
其他
登录
#大模型
关注
沉浸式翻译
1天前
“如果世界上绝大多数的气候科学家都由化石燃料公司发工资,你觉得我们还能听到关于气候危机的真相吗?同理,当今天绝大多数的 AI 研究者都被 AI 巨头资助时,我们又怎能指望听到关于 AI 发展的全部真话?” 最新一期《The Diary Of A CEO》对话知名科技记者、《AI 帝国》作者 Karen Hao 的长播客,绝对是近期最让人醍醐灌顶的对谈。在这个全网都在狂欢“大模型又进化了”的时代,她用极其冷峻的政治经济学视角,撕开了硅谷巨头们的“AGI 神话”。 Hao 尖锐地指出,目前的头部 AI 公司正在重演古老帝国的剥削剧本,信息量极大,字字见血: 1️⃣AGI 霸权与“煤气灯操纵 (Gaslighting)”:巨头们一面渲染“AI 有 25% 的概率毁灭人类”的恐慌,一面画下“AI 带来无限丰饶”的乌托邦大饼。这种双面神话的核心潜台词只有一个——“这项危险又伟大的技术,只能交由我们这些‘救世主’来掌控”,从而理直气壮地垄断资源并吸纳千亿资本。 2️⃣OpenAI 的权力游戏与宫斗真相:节目揭秘了 Sam Altman 短暂被逐出董事会的真正原因。前首席科学家 Ilya Sutskever 认为 Altman 擅长操纵人心、在团队间制造对立与混乱,这样的人根本不适合将手放在“决定人类命运的 AGI 按钮”上。 3️⃣残酷的劳动力“降维打击”:AI 并没有创造出更多美好的新工作,反而正在打断职业阶梯。无数被优化的中产白领、高学历人才甚至好莱坞导演,最终沦为系统里计件算钱的“数据标注员”。他们在极致的高压下,亲手训练出下一个即将取代他们自身技能的模型。 4️⃣惊人的环境与资源掠夺:为了支撑暴力美学般的算力,巨头们在弱势社区疯狂圈地建超级数据中心。例如孟菲斯的算力中心甚至动用数十台甲烷燃气轮机发电。底层民众未享 AI 红利,却要承受空气污染、水资源枯竭和生活成本暴涨的代价。 5️⃣我们需要“自行车”,而不是“大火箭”:巨头们为了拼凑全能的 AGI“大火箭”,正不计代价地吞噬一切;但事实上,人类面临的很多真实痛点,只需要一辆极其精准、低耗能的“AI 自行车”(比如预测蛋白质折叠的 AlphaFold,或者帮我们跨越语言障碍的翻译工具)就能完美解决。 作为第一波把 AI 融入工作流的人,我们享受技术的红利,但也必须保持清醒的独立思考:我们真正需要的是能赋能个人的“自行车”,还是巨头们的“火箭票”?强烈推荐抽出两小时完整听完这期硬核对谈。 💡 观看 Tips:虽然节目官方贴心地提供了中文配音音轨,但并没有配备中文字幕,且 AI 生成的中文语音在自然度上还是差了点意思。追求原汁原味英语对谈的朋友,建议直接在网页端打开沉浸式翻译并激活 YouTube 双语字幕。已经有咱们的热心用户为大家提前生成了高质量的 AI 翻译字幕,现在点进去就能直接享用,无需额外消耗翻译 Token。
#气候危机
#化石燃料
#AI研究
#AI巨头
#科技记者
#AI发展
#大模型
分享
评论 0
0
花花
3天前
用了同样的问题提问claude gpt gemini,说实话,claude领先能力太强了,gemini和gpt差不多吧。 大家还有啥更聪明的大模型吗?我来学习一下。
#Claude
#GPT
#Gemini
#大模型
#AI助手
#人工智能
#性能比较
#能力
#学习
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
4天前
3月最后两天进入垃圾时间,大模型们都在憋着人间4月天!
#垃圾时间
#大模型
#人间4月天
分享
评论 0
0
Geek
4天前
GPT 刚出来时,我还想着能自己部署 GPT-3.5,用上一辈子就满足了。没想到发展这么快,很多大模型有些甚至还没来得及体验,就已经迭代更新了。现在,自己能部署一个 Qwen3.5-27B 给虾哥用用,我就很满足了。 我非常看好 Apple silicon 在大模型上的发力。我的第一个真正可用的自部署大模型,一定会是在 Apple 上实现。
#GPT-3.5
#大模型
#Qwen3.5-27B
#Apple Silicon
#自部署
分享
评论 0
0
数字生命卡兹克
6天前
杨植麟、张鹏、罗福莉等齐聚一堂,他们关于OpenClaw的观点值得一听。 今天是2026中关村论坛的人工智能主题日。 我也定了个一早的闹钟准时起来看。 这个活动海淀已经办了第三年,但今年的议程密度确实有点夸张。 一上午塞进了开源联盟成立、主权大模型白皮书发布、北京市人工智能协会揭牌,外加两场圆桌。 大模型和具身智能各一场。嘉宾阵容从Eclipse基金会到智谱、小米MiMo、无问芯穹,再到一众具身智能公司的创始人,几乎把当下AI产业链上最活跃的角色都拉到了同一个舞台上。 在我看来,信息密度最高的,还是第一场小龙虾与AI开源圆桌。 这场圆桌由杨植麟主持,嘉宾是智谱的张鹏、无问芯穹的夏立雪、小米MiMo的罗福莉,还有港大的黄超。 从模型层到算力基础设施层再到Agent应用层,刚好覆盖了当下AI产业链的几个关键环节。 张鹏解释了智谱GLM5 Turbo提价的逻辑,模型从聊天转向干活,完成任务消耗的token量可能是简单问答的十倍甚至百倍,提价本质上是在回归商业价值。 罗福莉谈了中国团队在模型结构创新上的优势,尤其是长上下文架构和推理效率。 黄超拆解了Agent在planning、memory、skill三个维度上的技术痛点。 最后让每人用一个词总结未来12个月的趋势,黄超说的是生态,罗福莉说的是自进化,夏立雪说的是可持续token,而张鹏直接点了一个最朴素的问题:算力。 几位嘉宾的圆桌对话,干货含量极高,几乎没有什么客套和PR话术,聊的都是非常实在的问题。 所以,我也把这场圆桌的内容做了一个完整的文字整理,分享给大家。 【圆桌对话-人类校对版】 杨植麟(主持人):很荣幸今天能邀请到各位重磅的嘉宾,各位的背景覆盖了不同的层面,从模型层到底层的算力层,再到上面的Agent层。很高兴今天能和大家一起探讨,主要的关键词是开源和Agent。我们从第一个问题开始,这个问题是给所有人的。 现在OpenClaw是最流行的产品,大家在日常使用OpenClaw或类似产品的过程中,觉得最有想象力或者印象最深刻的是什么?从技术角度来看,如何看待今天OpenClaw和相关Agent的演进?我们先从张鹏这边开始。 张鹏 :好,首先感谢植麟的邀请,也感谢主办方给这次机会跟大家交流。其实我很早就开始自己玩这个东西了,当时还不叫OpenClaw,最早叫Clawdbot。 毕竟我是程序员出身,折腾这些东西有一些自己的体验。我觉得它带给大家最大的突破点,在于这件事情不再是程序员或者极客们的专利,普通人也可以比较方便地使用顶尖模型的能力,尤其是在编程和智能体方面。 所以到现在为止,我在跟大家交流的过程中,更愿意把OpenClaw这件事称作一个脚手架,它提供的是一种可能性。在模型的基础之上搭起一个牢固、方便又灵活的脚手架,大家可以按照自己的意愿去使用底层模型提供的很多新奇的东西。原来自己的一些想法,受限于不会写代码或者缺乏某些技能,今天终于可以通过很简单的交流就把它完成。这对我来说是一个非常大的冲击,让我重新认识了这件事情。 夏立雪 :我最开始用OpenClaw的时候其实不太适应,因为我习惯于和大模型聊天的那种交流方式,结果发现OpenClaw反应好像比较慢。但后来我意识到一个关键的不同,它不是一个聊天机器人,而是一个能够帮我完成大型任务的助手。当我开始给它提交更复杂的任务之后,发现它其实能做得很好。这件事给我一个很大的感触,就是AI从最开始按token聊天,到现在能够作为一个Agent帮你完成任务,对整个AI的想象力空间做了一个很大的提升。但与此同时,它对整个系统的能力要求也变得很高,这也是我一开始用会觉得卡顿的原因。 作为基础设施层的厂商,我看到OpenClaw为整个AI后续的大型系统和生态带来了更多机遇和挑战,因为现在所有能用到的资源,想要支撑起这样一个快速增长的时代是不够的。就拿我们公司来说,从一月底开始,基本上每两周token用量就翻一番,到现在已经翻了十倍。上次见到这种速度,还是当年3G时代手机流量增长的那种感觉。现在的token用量,就像当年每个月只有一百兆手机流量的那个时代一样,所有资源都需要更好的优化和整合,让每一个人都能把OpenClaw这样的AI能力用起来。所以作为基础设施领域的从业者,我对这个时代非常激动,认为其中有很多值得去探索和尝试的优化空间。 罗福莉 :我把OpenClaw视为Agent框架上一个非常革命性和颠覆性的事件。虽然我知道身边深度使用编程工具的人,第一选择可能还是Claude Code,但我相信只有用过OpenClaw的人才能独特地感受到,这个框架在设计上有很多地方是领先于Claude Code的,包括最近Claude Code的很多更新,其实都是在向OpenClaw靠近。对我自己来说,OpenClaw这个框架带来更多的是一种随时随地的想象力延伸。Claude Code可能最开始只能在桌面上延展创意,但在OpenClaw里我可以随时随地延展想法。 我后来发现,OpenClaw核心价值在于两点:第一是它开源,开源对整个社区深度参与、持续改进Agent框架是一个非常重要的前置条件。第二,像OpenClaw这样的Agent框架,它很大的价值在于把国内水平接近但略逊于闭源模型的这一赛道上的模型上限拉得非常高,在绝大部分场景里任务完成度已经非常接近Claude最新的模型。同时它又通过Harness系统或者Skills体系等诸多设计,把下限保证得非常好。从基座大模型的角度来说,它保证了下限,同时也拉升了上限。此外,我认为它给整个社区带来的更大价值,是点燃了大家对模型之外的那一层的热情,让大家发现Agent这一层有非常多的想象力和空间可以发挥。这也让社区里越来越多除研究员以外的人参与到AGI的变革当中,更多人接触到更强的Agent框架,一定程度上在替代自己重复性的工作,释放时间去做更有想象力的事情。 黄超 :从交互模式上来讲,我觉得OpenClaw这次爆火,首先是因为给大家一种更有活人感的感觉。我们其实做Agent也有一两年了,但之前包括Cursor、Claude Code这些Agent,大家感受到的更多是一种工具感。OpenClaw第一次以IM软件嵌入的交互方式,让大家更有一种活人感,更接近于自己想象中的个人贾维斯那样的概念,这是交互模式上的突破。另外它给大家带来的一个启发是,Agent Loop这种非常简单但高效的框架,再次被证明是行之有效的。同时它也让我们重新思考,究竟是需要一个all-in-one的非常强大的智能体帮我们做很多事情,还是需要一个像轻量级操作系统或脚手架一样的小管家。OpenClaw的答案是,通过这样一个轻量级的操作系统生态,去撬动整个生态里所有的工具。随着Skills和Harness这些机制的普及,越来越多的人可以设计面向OpenClaw这类系统的应用,赋能各行各业。这与整个开源生态天然结合得非常紧密,我觉得这两点是它带给我们最大的启发。 杨植麟(主持人):顺着这个话题,刚才一直在讨论OpenClaw。想问一下张鹏,看到最近智谱也发布了新的GLM5 Turbo模型,我理解在Agent能力上也做了很大的增强,能不能给大家介绍一下这个新模型和其他模型的不同之处?另外我们也观察到有一个提价的策略,这反映了什么样的市场信号? 张鹏 :这是个很好的问题。前两天我们确实紧急做了一波更新,这其实是我们整个发展路线中的一个阶段,提前把它放出来了。这件事最主要的目的,是从原来简单的对话转向真正的干活。正如各位刚才说的,OpenClaw真的让大家觉得大模型不再只是聊天,而是能帮我干活。但干活背后对能力的要求是非常高的,它需要自主进行长程任务规划,不断压缩上下文、debug、处理多模态信息等等,这和传统面向对话的通用模型的要求有很大的不同。所以GLM5 Turbo在这方面做了专门的加强,尤其是长程任务如何能够持续自主loop而不中断,这里做了很多工作。 另外,大家也提到了token消耗的问题。让一个聪明的模型去完成复杂任务,token消耗量是非常巨大的,可能一般人体会不到,只会看到账单上的钱在不停地往下掉。所以我们在这方面也做了优化,面临复杂任务时用更高效的token效率来完成。模型架构上本质还是多任务协同的通用架构,只是在能力上做了一些偏向性的加强。至于提价这件事,其实也很顺畅地能跟大家解释。现在不再是简单的一问一答,背后的思考链路很长,还要通过写代码的方式跟底层基础设施打交道、随时debug和纠错。完成一个任务需要的token量,可能是原来回答一个简单问题的十倍甚至百倍。模型变得更大,推理成本相应提高,所以我们把价格回归到正常的商业价值上。长期靠低价竞争不利于整个行业发展,这样才能持续在商业化路径上形成良性闭环,不断优化模型能力,持续给大家提供更好的模型和相应的服务。 杨植麟(主持人):非常好的分享。现在开源模型和推理算力已经开始形成一个生态,各种开源模型可以在不同的推理算力上为用户提供更多价值。随着token量的报价变化,我们可能也正在从训练时代逐渐进入推理时代。想请教一下立雪,从infra的层面来看,推理时代对于无问芯穹意味着什么? 夏立雪 :我们是一家诞生在AI时代的基础设施厂商,现在在为Kimi、智谱提供服务,也在跟MiniMax合作,帮助大家更高效地用好我们这个token工厂。我们也在和很多高校、科研院所合作,所以一直都在思考一个问题:AGI时代所需要的基础设施,究竟应该是什么样的?我们怎么能够一步步地在这个过程中去实现它、推演它。 我们已经做好了充分的准备,也看清了短期、中期、长期不同阶段需要解决的问题。当前最紧迫的问题,就是像Claude这类模型带动的整个token量的暴增,对我们系统效率提出了更高的优化需求,价格的增长也是在这个需求压力下的一种应对方式。 我们一直以来都是从软硬件打通的方式来布局和解决这个问题。我们接入了几乎所有种类的计算芯片,把国内十几种芯片和几十个不同的算力集群统一连接起来。这样,当资源不足时,我们能做到两件事:第一,把能用的资源都用起来;第二,让每一个算力都用在刀刃上,发挥出最大的转化效率。所以当前阶段我们要解决的核心问题,就是如何打造一个更高效的token工厂。为此我们做了很多优化,包括让模型与硬件在显存等方面实现最优适配,也在探索在最新的模型结构和硬件结构下能否产生更深度的化学反应。 不过,解决当前的效率问题,我们只是打造了一个标准化的token工厂。面向Agent时代,这还远远不够。就像刚才说的,Agent更像一个人,你可以交给他一项任务。我坚定地认为,当前云计算时代的很多基础设施,是为服务程序、服务人类工程师而设计的,而不是为AI设计的。现在的状态有点像:我们搭了一套基础设施,上面留了一个为人类工程师设计的接口,然后在这上面再包一层去接入Agent。这种方式实际上是用人类操作的能力边界,限制了Agent的发挥空间。 举个例子,Agent能够在秒级甚至毫秒级思考并发起任务,但我们之前的底层K8S这些能力并没有为此做好准备,因为人类发起任务大概是分钟级别的。所以我们需要进一步构建我们称之为Agentic Infra的能力,打造一个更智慧化的算力投放工厂。这是无问芯穹现在正在做的事情。 从更长远的未来来看,真正AGI时代到来的时候,我们认为连基础设施本身都应该是一个智能体,应该能够自我进化、自我迭代,形成一个自主的组织。相当于有一个CEO,这个CEO是一个Agent,比如一个Claude在管理整个基础设施,根据AI客户的需求自己提需求、迭代自己的基础设施。只有AI与AI之间才能更好地形成耦合。所以我们也在做一些让Agent与Agent之间更好通信的事情,比如cache to cache这样的复制能力。 我们一直认为,基础设施与AI的发展不应该是隔离的状态,而应该产生非常丰富的化学反应。这才是真正的软硬协同,真正的算法与基础设施协同。这也是无问芯穹一直想实现的使命。 杨植麟(主持人):接下来想问问福莉。小米最近发布了新的模型,也开源了一些背后的技术,我觉得对社区做出了很大的贡献。想请问一下,小米在做大模型方面有什么独特的优势? 罗福莉 :我想先把这个问题稍微拓展一下,不只聊小米的优势,而是聊聊中国做大模型的团队在这件事上的优势,我觉得这个话题有更广泛的价值。 大概两年前,我就观察到中国的基座大模型团队已经开始了一个非常好的突破。这个突破是:在有限算力的条件下,尤其是在互联带宽受限的情况下,如何突破这些低端算力的限制,并由此催生了一些看似是为效率妥协的模型结构创新,比如DeepSeek v2、v3系列的细粒度MoE等等。但我们后来能看到,这些创新引发的是一场变革,也就是在算力一定的条件下,如何发挥出最高的智能水平。我觉得DeepSeek给了国内所有技术大模型团队一份勇气和信心。 虽然今天我们自己的国产芯片,无论是推理芯片还是训练芯片,已经不再像以前那样受到严重限制,但我们能看到,正是那些限制催生了我们对更高训练效率、更低推理成本的模型结构的全新探索。比如最近出现的hybrid sparse或linear attention结构,有DSA、NSA,Kimi有KSA,小米也有面向下一代结构的high sparse架构。这区别于MiMo这一代结构,是我们面向Agent时代去思考的,如何在Agent时代做出更好的模型结构创新。 我为什么认为结构创新如此重要?因为我们刚才聊到了long context这个话题。如果大家真实地去用OpenClaw就会发现,越用越好用,越用越聪明。它的前提是推理的context足够长。long context是一个谈论了很久的话题,但真正能做到在超长context下表现强劲、推理成本足够低的模型,其实并不多。很多模型不是做不到百万甚至千万token的context,而是推理成本太高、速度太慢。只有当你能在百万甚至千万context下做到成本够低、速度够快,才会有真正高生产力价值的任务被交给这个模型,从而激发模型在long context场景下完成更高复杂度的任务。我们可能需要在这样千万甚至亿级context的规模下,才能实现模型的自迭代。所谓模型的自迭代,就是它可以在复杂的环境里依靠超长context完成对自我的进化,这个进化可能是对Agent框架本身的,也可能是对模型参数本身的,因为我们认为long context本身就是对参数的一种进化。 所以,怎么实现long context efficient的架构,以及在推理侧做到long context efficient,是一个全方位的竞争。这是我们大约一年前就开始探索的问题。而如今,怎么在真实的长程任务上实现稳定性和高上限的效果,是我们现在在持续迭代的创新方向。我们在思考如何构造更有效的学习算法,如何采集到真实的、在百万乃至千万上下文里具有长距依赖的文本,以及结合复杂环境产生的trajectory,这是我们正在经历的事情。 但我能看到更长期的事情是,大模型本身在飞速进步,加上Agent框架的加持,推理需求已经在过去一段时间内增长了近十倍。那今年整个token的增长会不会达到百倍?这又将我们带入另一个维度的竞争,那就是算力,推理芯片,乃至往下到能源层面。这是我对这个问题的判断,也期待从大家身上学到更多。 杨植麟(主持人):非常有insight的分享。下面想问一下黄超,因为你也开发了一些非常有影响力的agent项目,包括nano bot,在社区里也有很多粉丝。想问一下,从agent的harness或者说应用层面,接下来你觉得有哪些技术方向是比较重要、大家需要去关注的? 黄超 :感谢。我觉得首先可以从agent的几个关键技术模块来拆解,包括planning、memory和tool use。 从planning来讲,现在面向长链路任务或者非常复杂上下文的场景,比如说五百步甚至更长的任务,很多模型不一定能做好planning,我觉得本质上是模型不具备这方面的隐性知识,尤其是在一些复杂垂直领域。未来可能需要把各类复杂任务的知识固化到模型里,这是一个方向。当然,skill和harness这种机制,在一定程度上也是在缓解planning层面的错误,因为它提供了比较高质量的skill,本质上是在帮助模型去完成一些较难的task。 关于memory,我的感受是它永远存在信息压缩不准确、召回不准的问题。当整个长链路任务和复杂场景展开时,memory会急剧膨胀,这对整个memory架构造成很大压力。目前包括各类agent框架基本上都采用最简单的文件系统、Markdown格式来做memory,通过文件共享来协作。我觉得未来memory应该走向分层设计,并且需要解决通用性的问题,因为coding场景、deep research场景、多媒体场景的数据模态差异很大,如何对这些memory做好检索索引、提升效率,这永远是一个trade off。 另外,现在agent框架让大家创建agent的门槛大幅降低,未来可能不止一个agent,我也看到有些产品推出了Agent Swarm这样的机制,相当于每个人会拥有一群龙虾。一群龙虾相比一个龙虾,上下文的暴增是可以想象的,这对memory带来的压力非常大。如何管理一群龙虾带来的上下文,目前还没有很好的机制,尤其是在复杂coding、科研发现这类场景下,对模型和整个agent架构都是不小的挑战。 关于tool use,当年MCP存在的问题,比如质量没有保障、存在安全隐患,现在在skill里依然存在。目前看似有很多skill,但高质量的skill其实比较少,低质量的skill会严重影响agent完成任务的完成度。另外skill也存在恶意注入的风险。所以我觉得tool use这块可能需要整个社区共同努力,把skill生态发展得更好,甚至探索如何在执行过程中进化出新的skill。以上这些,是我认为当下agent在planning、memory、skill三个维度上存在的痛点,以及未来潜在的方向。 杨植麟(主持人):可以看到刚才两位嘉宾从不同视角讨论了同一个问题,随着任务复杂度增加,上下文会急剧膨胀。从模型层面可以去提升原生的上下文处理能力,从agent harness层面,则是通过planning、memory,包括multi-agent的harness,在模型能力一定的情况下支持更复杂的任务。我觉得这两个方向接下来会有更多的化学反应,共同提升完成复杂任务的能力上限。 那最后我们来一个开放式展望,请各位用一个词来描述接下来十二个月大模型发展的趋势以及你的期望。这次我们先从黄超开始。 黄超 :十二个月在AI领域看起来好遥远,真的不知道十二个月之后会发展成什么样子。 杨植麟(主持人):这里原来写的是五年,我给改成十二个月了。 黄超 :对,我这边的关键词应该是生态。未来agent要真正从个人助手转化为打工人,这一步很重要。现在大家玩agent很多时候还停留在新鲜感阶段,觉得好玩,但未来真正要让agent沉淀下来,成为大家真正的搬砖工具,或者说真正的co-worker。这需要整个生态的共同努力,把所有相关的技术探索和模型技术都开源出来,不管是模型迭代、skill平台迭代还是各类工具,都需要面向agent打造更好的生态。 从我自己的感受来说,未来的很多软件可能不再是面向人类的。人类需要GUI,但很多软件可能会是面向agent原生设计的,人类只会去使用让自己快乐的GUI,其他的交给agent。所以现在整个生态从GUI、MCP又转向了CLI这样的模式。我觉得需要整个生态把不管是软件系统、数据还是各种技术,都变成Agent Native的模式,这样才能让整个agent的发展更加丰富。 罗福莉 :我觉得把这个问题缩小到一年非常有意义,因为五年这个时间跨度,从我心目中对AGI的定义来看,我觉得已经实现了。所以如果要用一个词来描述接下来一年AGI历程里最关键的事情,我认为会是自进化。这个词虽然听起来有点玄幻,过去一年大家也多次提到,但我最近才对它有了更深的体会,也对如何具体落地这件事有了更务实可行的方案。 借助非常强大的模型,我们在过去chat范式下其实根本没有发挥出预训练模型的上限,而这个上限现在被agent框架激活了。我们现在触到了一个现象,当模型执行更长时间的任务时,它可以自己去学习和进化。一个很简单的尝试是,在现有的agent框架里叠加一个可以verify的条件约束,再设置一个loop,让模型持续迭代优化目标,我们就能发现模型会持续拿出更好的方案。这种自进化现在已经能跑一两天了,国内的模型基本上能支撑,当然和任务难度有关。我们发现在一些科学研究上,比如去探索更好的模型结构,因为有评估标准,比如更低的PPL,在这类目标明确的任务上,模型已经能自主运行和执行两三天了。 从我的角度看,自进化是唯一能创造出新东西的地方,它不是去替代我们人类现有的生产力,而是像顶尖科学家一样去探索这个世界上还没有的东西。一年前我会觉得这个时间历程需要三到五年,但就在最近,我觉得这个时间线应该缩短到一两年,大模型叠加一个非常强的自进化agent框架,至少能实现对科学研究的指数级加速。我们组内做大模型研究的同学,workflow高度不确定且需要大量创造力,但借助顶尖模型,基本上已经能把我们自己的研究效率加速近十倍了。我很期待这样的范式辐射到更广泛的学科和领域。 夏立雪 :我的关键词叫可持续token。我看到整个AI的发展仍然处于长期持续的过程中,我们也希望它能有长久的生命力。从基础设施的视角来看,我们面临的一个很大问题是资源终究是有限的,就像当年我们讲可持续发展一样。我们作为一个token工厂,能否给大家提供持续稳定、大规模可用的token,让顶尖的模型真正能够继续服务更多的下游,是我们看到的一个非常重要的问题。 所以我们现在需要把视角放宽到整个生态,从最早的能源到算力,再到token,最终转换成GDP,让这条链路能够进行持续的经济化迭代。我们不只是把国内的算力用起来,也在把这些能力输出到海外,让全球的资源能够打通整合。所以我认为可持续这个词,也包含了我们想把中国特色的token经济学做起来的愿望。过去那个时代叫Made in China,我们把低价的制造能力转化成好的商品输出到全球。现在我们想做的有点像AI Made in China,把中国在能源上的优势,通过token工厂可持续地转化为优质的token输出到全球,成为世界的token工厂。这是我希望在今年看到的,中国为世界人工智能带来的价值。 张鹏 :我就简短一点,大家都在仰望星空,我就落地一点。未来十二个月面临的最大问题,我觉得可能就是算力。刚才也说了,所有的技术,包括智能体框架,让很多人创造力爆发、效率提升十倍,但前提条件是大家用得起、用得起来。不能因为算力不够,一个问题提出去让它思考半天都得不到答案,这肯定不行。也正是因为这样的原因,我们很多研究进展和想要做的事情其实都受阻了。前两年记得中关村论坛有人提过这么一句话,叫没卡没感情,谈卡伤感情。今天又回到了这个处境,但情况又不一样了,我们现在转向推理阶段,是因为需求真的在爆发,十倍百倍地爆发。刚才也说到过去增长了十倍,背后其实是一百倍的需求,还有大量的需求没有被满足,这需要大家一起来想办法。 杨植麟(主持人):好,感谢各位的精彩分享,谢谢大家。 最后,这两天海淀五道口的AI原点社区也在举办原点Party Nights活动,有兴趣的可以去玩玩,说不定咱们还能一起面个基🫣。
#OpenClaw
#中关村论坛
#人工智能
#开源联盟
#主权大模型
#北京市人工智能协会
#大模型
#具身智能
分享
评论 0
0
花果山大圣
6天前
只靠搜索引擎写过本科毕业论文的我,最近看了一些大模型的论文 有些论文水的,我感觉我上也能写,有没有那种近期优秀论文精选的 list,闲来无聊动动脑子
#搜索引擎
#大模型
#本科毕业论文
#优秀论文
分享
评论 0
0
链研社|AI First🔸💧
1周前
转自公众号孤独大脑 语言是人类最伟大的发明,也是人类最大的瓶颈。 当大模型拆掉巴别塔,究竟会带来什么? 人类靠语言构建文明,形成社会,发展出商业。人类垄断了语言,语言之间充满了摩擦和误解,大多数工作岗位因此而诞生。 大模型来了,刹那间,降低了语言摩擦 一、企业的本质是一个语言组织。B端真正被重构的,是企业这台语言机器本身。 二、商业文明的底层代码不是货币,是语言。过去的软件自动化了"计算",大模型自动化的是"表达"和"理解"。 三、AI替代的不是人,而是人与人之间的摩擦。AI一旦成为高带宽、低摩擦的中介层,很多人会发现,自己只是"摩擦收费员"。 四、南郭先生的本质,是信息不对称,是能力"不可验证"。这些将被AI击穿。 五、当语言摩擦归零,科斯定理会重新算账。科斯说企业存在的理由是降低交易成本,未来的公司可能只剩两种人:做决定的人,和审计AI的人。 六、人类社会最昂贵的成本,不是无知,是"理解"。大模型把"理解的边际成本"压到接近零,"帮别人理解"面临贬值。 七、大模型拥有人类不具备的超能力:同时浸泡在所有上下文中。人类最多同时深度参与三到五个项目。AI可以同时吃进整个公司的代码库、客户邮件、合同条款、会议记录,在任意两个节点间建立联系。 八、B端竞争的终局,不是模型之争,而是流程主权之争。关键是进入主流程,触及核心数据,调动真实资源,在关键节点上触发行动。大模型真正可怕的能力,不是单点聪明,而是端到端。别把AI塞进现有流程的某个环节里当助手,而要让AI重新定义流程本身。 九、从“降本增效”到“降维打击”,从SaaS转向LaaS(劳动力即服务)。 十、个人获得“微型公司化”的器官。一个人通过AI长出公司的“器官”:外置超级记忆、自动化执行模块、全天候客服答疑、精准数据分析。这会催生超级个体新物种。 十一、超人类整合智能。人类大脑一次只能处理7±2个变量,大模型却能同时整合几千个琐碎要素(邮件、报表、竞品、政策、客户吐槽),获得超人类洞见。 十二、未来最值钱的,不是"会说",而是"有东西可说"。一手经验、独特判断、高质量品味、长期实践形成的结构化认知——这些东西大模型替不了你。
#语言
#大模型
#巴别塔
#企业
#商业文明
分享
评论 0
0
ariel reyez romero
1周前
google今天这篇2025年4月的论文居然引发了存储的下跌,那我们就再重读一下: KV cache 一直是大模型推理里的最大内存消耗来源。论文的做法,本质是用信息论最优的方式去压缩这些数据。不是简单地降低精度,而是重新分配信息密度。普通部分用极低比特表示,异常值单独保留更高精度。同时不再逐元素处理,而是以向量为单位编码,因为 attention 本身就是内积结构。 关键的是,它的误差已经贴近信息论下界(香农极限),也就是说压缩效率已经非常接近理论极限。论文里给出的结果,大致是 4 到 4.5 倍的压缩,性能几乎没有明显损失。效果很明显,但后续再压缩而不损伤性能的可能性已经很小。 基于大科技的内部研发流程,论文的方法及可能对模型产生的优化效果很可能已经被工程分阶段吃掉了。 比方说,低比特量化早就被用起来了,从 int8 到 int4,再到更低精度,主流模型在推理侧基本都在用。异常值单独处理这件事也不是新东西,SmoothQuant、AWQ 这些方法本质上都在做类似的事情。KV cache 本身的压缩、滑窗、分层缓存,在大模型里也已经是常规配置。 真正还没完全落地的,是论文里更极致的那一部分,比如向量量化,以及更接近信息论极限的编码方式。这些方法的问题不是原理,而是工程实现,GPU 不友好,延迟控制难,稳定性和泛化也更复杂,所以可能需要更长时间实现。 如果一定要拍脑袋猜一下论文已经落地和还没落地的部分可能有多少的话,大致可能是这么个情况:最早的 KV cache 是 1 倍成本,简单量化之后可以做到 2 到 3 倍压缩,加上异常值处理可以到 3 到 4 倍,论文再往前推一点,大约到 4 到 4.5 倍。也就是说,大部分红利已经被拿走了,剩下的提升空间不大,而且代价越来越高。 这背后的原因也很清楚。前期压缩是在去掉冗余信息,后面面对的是有效信息,再压就会直接影响模型能力。误差不再是平滑变化,而是到某个点之后快速恶化。实现难度也不是线性增长,而是明显抬升。 从模型表现可以反推,现在的主流模型已经在用这些技术。长上下文能力、推理成本下降、性能稳定,这些现象本身就说明 KV cache 的效率已经被大幅优化。像 Google 这种级别的团队,大概率已经实现了低比特量化、异常值处理和一部分 KV 压缩。 也就是说,如果说google的这篇论文对存储可能有影响的话,其大部分的影响已经被体现了出来,还没体现出来的部分,其实施难度也会较之前更大。 更重要的是,这篇论文的意义不在于多省了多少内存,而在于给出了一个边界。KV cache 压缩这条路已经接近极限,剩下的提升空间很有限。接下来真正能带来变化的,不太可能再来自压缩本身,而是需要找到其他的路径。
#谷歌
#论文
#存储
#kv cache
#大模型
#内存消耗
#信息论
#数据压缩
#精度
#向量编码
#attention
#误差
分享
评论 0
0
0xTodd
1周前
新时代“码奸”😅 开发最聪明的大模型,写出最好用的 Skill。 然后逼退前端兄弟,接着依次逼退后端兄弟、测试兄弟、运维兄弟、数据兄弟、网安兄弟。 新时代“码门忠烈”🫡 用公司的 AI API,模型能选多贵选多贵,思考能拉多长拉多长,不用 Skill,删掉 MCP,就靠推理硬生成。不塞爆上下文,誓不开新对话。 然后用月底的账单吓退拥抱 AI 的老板。
#码奸
#大模型
#Skill
#前端开发
#后端开发
#测试
#运维
#数据
#网络安全
#码门忠烈
#AI API
#MCP
#推理生成
#对话上下文
#AI老板
分享
评论 0
0
Geek
1周前
你们搞大模型的就是码奸🤣
#大模型
#AI
#搞笑
#科技
#笑话
#评论
分享
评论 0
0
Boywus
1周前
大模型天生只输出“主流共识内容”,不会给你输出“非经典的创新内容”,所以最适合“跨领域基础知识对齐”,别让它给你直接搞一个某领域的“局部最优解方案”。 根本原因就是,输入层的“训练语料”的数据源就是“幂律分布”的,主流内容占比非常高;输出层又是个概率模型,输出“下一个最可能出现的词”,导致更倾向于输出“主流共识内容”。 如果问题的答案主要来自“公开语料中的稳定规律”,就适合LLM,比如 通用知识问答,新闻解读等。 如果问题的答案主要来自“私有反馈环中的局部试错”,就不能指望LLM直接给最优解,比如量化交易等等。
#大模型
#主流共识
#输入层
#幂律分布
#输出层
#概率模型
#稳定规律
#公开语料
分享
评论 0
0
花果山大圣
1周前
你们搞大模型的就是码奸,你们已经害死前端兄弟了,还要害死后端兄弟,测试兄弟,运维兄弟,最后害死自己害死全人类 硅基文明给了你什么好处,你都吃了回扣了吧
#大模型
#码奸
#全人类
#硅基文明
#前端
#后端
#测试
#运维
#回扣
分享
评论 0
0
艾略特
2周前
论文来了。名字叫 MSA,Memory Sparse Attention。 一句话说清楚它是什么: 让大模型原生拥有超长记忆。不是外挂检索,不是暴力扩窗口,而是把「记忆」直接长进了注意力机制里,端到端训练。 过去的方案为什么不行? RAG 的本质是「开卷考试」。模型自己不记东西,全靠现场翻笔记。翻得准不准要看检索质量,翻得快不快要看数据量。一旦信息分散在几十份文档里、需要跨文档推理,就抓瞎了。 线性注意力和 KV 缓存的本质是「压缩记忆」。记是记了,但越压越糊,长了就丢。 MSA 的思路完全不同: → 不压缩,不外挂,而是让模型学会「挑重点看」 核心是一种可扩展的稀疏注意力架构,复杂度是线性的。记忆量翻 10 倍,计算成本不会指数爆炸。 → 模型知道「这段记忆来自哪、什么时候的」 用了一种叫 document-wise RoPE 的位置编码,让模型天然理解文档边界和时间顺序。 → 碎片化的信息也能串起来推理 Memory Interleaving 机制,让模型能在散落各处的记忆片段之间做多跳推理。不是只找到一条相关记录,而是把线索串成链。 结果呢? · 从 16K 扩到 1 亿 token,精度衰减不到 9% · 4B 参数的 MSA 模型,在长上下文 benchmark 上打赢 235B 级别的顶级 RAG 系统 · 2 张 A800 就能跑 1 亿 token 推理。这不是实验室专属,这是创业公司买得起的成本。 说白了,以前的大模型是一个极度聪明但只有金鱼记忆的天才。MSA 想做的事情是,让它真正「记住」。 我们放 github 上了,算法的同学不容易,可以点颗星星支持一下。🌟👀🙏
#MSA
#大模型
#注意力机制
#RAG
#端到端训练
#记忆机制
分享
评论 0
0
卫斯理
2周前
小龙虾的“成果” 昨天搞了个小龙虾的agent给大领导用,领导给机器人发了条信息 “每天早上7点去新闻网站抓取5条重要信息发我” 第二天,信息如约而至,领导很开心... 我也很开心,我可以很开心的白嫖公司的大模型高级套餐了....
#小龙虾
#人工智能
#自动化
#信息抓取
#大模型
分享
评论 0
0
Xiaowen
2周前
这几天重度的使用 A3B 和 27B。 A3B 的使用一定要垂直,并理解它没有能力(足够的参数量)跨领域连接知识给你足够深度的信息和洞察。 大参数满血模型的很多魅力和价值坍塌以后就无效了。 这些深度的使用场景,评分儿是一点都看不出来的。
#A3B
#27B
#垂直使用
#大模型
#参数量
#知识连接
#使用场景
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
戒掉想象性拥有,你就能拥有你所该拥有? 哈哈,这和大模型一样一样啊,想象性拥有具身!
#想象性拥有
#成长
#大模型
#心理健康
#自我提升
分享
评论 0
0
洛克船长
2周前
用了一上午的 GPT 5.4,真的很强大啊! 第一次有体验到百万上下文的爽感了。
#GPT 5.4
#人工智能
#大模型
#技术进步
#上下文处理
#用户体验
分享
评论 0
0
卫斯理
2周前
用上了openclaw后,大家一定要用自然语言去沟通配置哈,千万不要盲目去改配置,这样很浪费时间 不然我们绑定大模型做什么呢?
#OpenClaw
#自然语言
#配置
#大模型
分享
评论 0
0
Tiger.Chew
2周前
传统云厂商都得转型 过去云厂商 给 Application 提供服务 接下来要给 Agent 提供服务 这是两个完全不同的路线 但是 Agent 也需要获取数据 大模型决定了智商 而数据是智商决策依据 牛顿智商再高 没有数据 他也很难判断哪个饭店的饭菜好吃 而数据会成为传统云厂商核心壁垒 所以这个方向创业公司机会不大
#云计算
#Agent服务
#大模型
#数据核心壁垒
#传统云厂商转型
分享
评论 0
0
卫斯理
2周前
语音转文字那家大模型做得好?
#语音转文字
#大模型
#语音识别
#语音技术
分享
评论 0
0
Viking
3周前
咨询一下大家,现在纯文本处理(写作、翻译、润色、总结、创意内容生成等文字相关任务)哪个大模型比较强?输出的主要是中文内容。
#纯文本处理
#大模型
#写作
#翻译
#润色
#文字任务
#中文内容
分享
评论 0
0
看不懂的sol
3周前
国产龙虾合集整理,大家用过的来聊聊: 月之暗面KimiClaw:最早上线的国产龙虾之一,需购买199元/月的Kimi会员。我目前用的就是这样,说实话非常一般,准备找替代者。 MiniMax MaxClaw:上周上线,50G云存储和飞书/钉钉等国内生态直连,根据套餐不同分为39/119元每月。MiniMax号称国产大模型里最适合用在claw上,我可能会转移过去。 字节跳动ArkClaw:刚上线,整合字节生态,订阅200元/月的Coding Plan Pro才可使用完整功能。用过朋友来说说。 智谱AutoClaw:刚上线,简单式一键本地部署,无月租,按需购买Token。 腾讯QClaw:刚刚内测:主打一键本地部署,内置了微信、QQ的直连通道,方便用户远程对话和控制。没邀请码… 补充:阿里JVSClaw就是之前的无影JVS改名,还在内测中… 另外,国产龙虾已经卷成红海了(不含云上镜像版本)有: 腾讯QClaw、腾讯WorkBuddy、火山引擎ArkClaw、飞书妙搭、猎豹EasyClaw、MiniMax MaxClaw、 Kimi Claw、阿里CoPaw、智谱澳龙、 有道LobsterAI、矽速PicoClaw--11种龙虾一次讲清楚。 分三档: 本地一键装(澳龙/有道/QClaw/EasyClaw ) 云端免安装(MaxClaw/KimiClaw/ArkClaw) 专业场景(CoPaw/PicoClaw)小白选澳龙有道,微信党选QClaw和WorkBuddy,飞书党选ArkClaw、妙搭,省钱选有道LobsterAI,值守选MaxClaw,文档选Kimi Claw,企业选阿里CoPawo
#国产龙虾
#月之暗面KimiClaw
#MiniMax MaxClaw
#字节跳动ArkClaw
#云存储
#国内生态
#大模型
#软件工具
#价格比较
分享
评论 0
0
黄赟
3周前
捕虾队,第四十师,成立 DK,《计算机科学艺术》的作者, 近日开始“震惊震惊”… 原因是 Claude 把他几周没干完的活 轻松搞定 老爷子这回改口称赞, 看的出一个非常重要的信号 普通非程序员用户 如今与大模型带来的红利之间 就差一个啊哈瞬间 这个瞬间点燃就靠——小龙虾 一个庞大的生态即将崛起[加油]
#捕虾队
#Claude
#计算机科学
#非程序员
#大模型
#生态崛起
#小龙虾
分享
评论 0
0
毒猫猫🤔
3周前
我一直认为:研究多 Agent 团队结构是邪路 研究记忆、知识结构、上下文管理,和工作流就行了。非要说的话加个异步并发 大模型本来就只有一个,上下文窗口和文件记忆都是流动的 生搬人类的组织结构就只会学到中层病。要透过现象看本质。Agent 编排更像操作系统,而不是人类组织结构
#多Agent团队结构研究
#记忆结构
#上下文管理
#工作流
#大模型
#异步并发
#上下文窗口
#文件记忆
#人类组织结构
#Agent编排
#操作系统
分享
评论 0
0
澎湃新闻-财经上下游
3周前
代表委员热聊新质生产力:大模型读到这些高频词
#新质生产力
#大模型
#高频词
#代表委员
#热聊
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞