阑夕
2个月前
昨天Coze的两款核心产品被开源到GitHub了,分别是Agent的开发平台Coze Studio和管理平台Coze Loop,迎来了开发者阵营的一片好评。 今年是Agent大年,Coze也是起了个大早的标杆,但是因为主要价值在于服务专业用户搭建工作流,Coze和后面的那一拨AI Agent反倒没有走进同一条河流,于是各有各的热闹。 我自己对Coze「搭积木」的玩法还挺喜欢的,比起全托管的Agent,这种半托换的控制力更好,不会出现AI干AI的、我急我的这种矛盾。 比如你们可能记得,前段时间我发了百度的市值被大家用来听歌的腾讯音乐给超了的截图,那个其实就是更早时候在群里看到两家公司市值接近的话题,但当时还有一点差距。 我觉得这是很戏剧性的时刻,但自己肯定没时间每天都去盯着两家公司的股价然后等到市值交错的瞬间赶紧截图,这也太蠢了,当时就是去Coze搭了一个非常简单的智能体,让它每天在美股收盘时去查询百度和腾讯音乐的市值,并对比做出判断,一旦发现百度的市值低于腾讯音乐,就给我发一条消息。 之后我就扔着没管了,直到一天起床后收到提醒,马上就知道节目效果终于出现了,所以对我来说,这样可持续工作的智能体,和我在通用Agent里需要的一次性代码服务,是不一样的,很多Agent产品,我用得频繁,换得也频繁,但Coze我虽然用得不多,每次遇到事儿却是真会「复购」。 这次开源的Coze Studio,就是Coze的核心开发模块,明确意义上的六边形战士,应用接口非常丰富,可以很爽的调用第三方工具,另一个Coze Loop就跟我这样的非商业用户关系不大了,是为智能体的产品化提供支持的。 比较值得点出来的是,Coze开源选择了Apache 2.0开源协议,这是对商业化最友好的开源协议,没有之一,几乎不会对使用者做出任何限制,一视同仁的将技术开放给从个人开发者到各种体量的公司,而且它不但授予用户版权,还明确授予了与贡献相关的专利许可,确保了商用场景的法律安全性。 多少能够理解Agent赛道的开发者们为此开香槟的态度,技术的流动加速,对于一个新兴多变的行业来说,永远都是不嫌多的,开源社区越是繁荣,AGI平等降临到每一个人手上的概率就会越高。
宝玉
2个月前
来自 Nature:Writing is thinking《写作即思考》 论大语言模型时代下,人类亲笔进行科学写作的价值。 撰写科学论文是科学方法中不可或缺的一环,也是交流研究成果的常规做法。然而,写作不仅仅是为了报告结果,它更是一种能发掘新思想、新观点的工具。写作促使我们进行结构化、有目的性的思考,而不是任由思绪如脱缰野马般混乱、跳跃。通过动笔写作,我们可以将多年来的研究、数据和分析梳理成一个逻辑连贯的故事,从而明确我们想传达的核心信息以及我们工作的影响力。这并非空谈玄理,而是有科学依据的。例如,科学证据表明,手写能促进大脑皮层的广泛连接,并对学习和记忆产生积极影响。 “我们在此呼吁,要继续重视人类亲笔进行科学写作的价值” 在大语言模型(LLM)时代,这个呼吁可能显得有些不合时宜。只要给出正确的提示,大语言模型就能在几分钟内生成整篇科学论文(甚至是同行评审报告),这似乎能在研究的“硬骨头”啃完之后,大大节省发表成果的时间和精力。然而,大语言模型因为无法承担责任,所以不能被视为作者,因此,我们不会考虑发表完全由大语言模型撰写的文稿(使用大语言模型进行文字编辑是允许的,但必须声明)。更重要的是,如果写作即思考,那么当我们阅读一份由 AI 生成的论文时,我们读到的究竟是大语言模型的“思考”,还是论文背后研究人员的思想呢? 目前的大语言模型也可能出错,这种现象被称为“幻觉”。因此,由大语言模型生成的文本需要经过彻底的检查和验证(包括每一条参考文献,因为它可能是凭空捏造的)。所以,目前的大语言模型究竟能节省多少时间,仍然是个未知数。编辑一篇由大语言模型生成的文本,可能比从头开始写一篇论文或同行评审报告更加困难和耗时,部分原因在于,你必须先理解其背后的逻辑才能进行修改。其中一些问题或许可以通过那些仅基于科学数据库进行训练的大语言模型来解决,正如本期中刘凤麟(Fenglin Liu)及其团队的一篇综述文章所概述的那样。这一切,尚需时间来证明。 当然,这并非否认大语言模型可以成为科学写作中的宝贵工具。例如,大语言模型可以帮助提升文章的可读性和语法水平,这对那些母语非英语的研究者来说尤其有用。大语言模型在搜索和总结各种科学文献方面也可能很有价值,它们还可以提供要点,协助进行头脑风暴。此外,大语言模型还有助于克服写作障碍,为研究发现提供不同的解释,或是在看似无关的主题之间建立联系,从而激发新的思想火花。 然而,若将整个写作过程完全外包给大语言模型,我们可能会失去反思自己研究领域的机会,也无法参与到那项充满创造力且至关重要的任务中——即将研究成果塑造成为一个引人入胜的叙事。而这种能力的重要性,无疑远远超出了学术写作和出版的范畴。
"智能进化的本质,是信息处理效率与传播密度之争" 补了一下 辛顿老爷子 2025WAIC现场演讲 ——《数字智能是否会取代生物智能》,咋看下在说LLM,实则再说 人之为人 ,用 gpt 4.5做了一些解析,颇有收获,总结如下: 一、智能的本质:从规则到连接 真正的智能,不在于规则的精妙,而在于联结与互动的效率。 人类智能和当前主流的AI(如大语言模型)本质一致:都是通过大量微小单元的柔性互动,构建起对世界的理解。 这意味着,精准逻辑推理的黄金时代正在退场,未来属于能快速学习、灵活互动、实时适应的智能模式。 二、语言与理解的隐喻:高维乐高积木 语言中的词汇,就像具备多种拼接方式的高维度乐高积木,不断重塑形状,随时调整“握手”方式形成新的含义。 启示:世界的意义,不是静态的定义,而是动态交互的产物。 三、知识形态革命:数字知识与生物知识 数字知识能够永生、无限复制与高效传播; 生物知识(人类智慧)则低能耗但低传播效率。 未来的竞争,不在于个体智力的极限,而在于知识传播的速度和密度。 四、智能蒸馏:知识的“师生传递” 人类知识传播效率极低,而数字智能的知识传递效率超越我们想象。 “知识蒸馏”概念启发我们:尽早接入高效能的信息源(导师、专家、AI),学会把学习链条缩到最短。 五、AI失控风险的启示:主导权的转移 当智能体的认知能力超过人类,人类将无法真正控制它。 映射到个人成长上,就是:不要把决策权彻底交给任何外部代理——哪怕它看起来更聪明。 六、共生未来:“仁慈AI”的核心战略 AI不能消灭,只能共生。辛顿提出训练“仁慈AI”,是确保人类持续掌控权的唯一途径。这提醒我们,个体在AI时代的成功,必然在于如何主动定义、驾驭和利用AI。 七、智能进化的终极洞察:信息效率之战 智能进化的本质,是信息处理效率与传播密度之争。 未来的竞争,不仅是技术竞争,更是认知与信息套利效率的竞争。 老爷子的话,对个体的 7 条行动启发 1. 放弃对“精确预测”的执念——进入高频互动与反馈循环,培养高适应性心智。 2. 把语言当作动态建模工具——随情境调整认知,保持表达的灵活性。 3. 将知识结构化输出——写出来、录下来、数字化,让它能被复制、流通、放大。 4. 筛掉低质量输入——只接入高密度信息源,并主动链接更高阶智能(导师/AI)。 5. 保留最终判断权——持续训练元认知,对自己的思维过程保持清醒。 6. 学习“驯养 AI”——让它成为你的延伸,而非取代你。 7. 优化“过滤—提炼—传播”链条——以速度与效率为核心竞争力,削减一切拖延和冗余。 结语 辛顿老爷子的演讲看似在谈 AI,其实是在谈 未来人类如何进化心智结构。 智能的下一阶段,不是“更聪明”,而是“更高效”。 而我们能做的,就是在信息的洪流中,成为最快的连接者、最敏捷的学习者、最清醒的驾驭者。 演讲的 翻译稿 放 评论
dontbesilent
2个月前
我对「一人公司」这个词极其反感,今天必须写字喷一下 实际上我自己现在就是字面意义上的「一人公司」,我现在一个人运营 X、抖音、小红书、B 站、视频号、公众号、YouTube、即刻、微信群、朋友圈 …… 原因是我认为在当下这个阶段,我来做这个事情更合适(但未来不是),以及我有足够丰富的自动化工具、AI 工具,让我的效率可以很高 在工作中间接和我协作的人也很多,只是我们之间并不是「雇佣关系」而已 但是这没有任何可提倡、可鼓吹的地方,公司需要几个人就雇几个人,工作人员是手段,企业盈利是目的 现代公司的雇佣与优化是一套历经数百年验证的、基于分工、协作、规模化的科学体系。它的核心是构建一个有弹性的、可持续的组织,以应对复杂性和不确定性 并不是你们搞了什么 DeepSeek 和 Coze 工作流,就可以颠覆式创新了 公司(Company)的词源本义是“一群人分食面包”,Companionem 指的就是“一个与你分享面包的人”,它的核心价值在于规模化 将“一人公司”视为一种商业模式的“创新”,是一种“返祖现象” —— 回到了前工业时代的手工作坊,只不过披上了数字化的外衣 这件事情的意义在于,在生意启动初期,AI 或其他工具,让我们可以暂时不用付出雇佣和管理团队的成本,快速跑通从 0 到 1,把团队管理这件事情往后放,除此之外,没什么其他作用 现代商业最伟大的发明之一就是“有限责任公司”这个组织形式 我们在提出新概念的时候,不要违背学科基石,不要违背基本常识,不要蔑视大众智力