#豆包

1周前
豆包新上线了AI播客,瑞士军刀功能再+1,目前支持PDF和网页链接的上传,总体来说,通过大模型的智能识别,豆包现在可以把任何内容转化成一条高度口语化的双人对话播客,属于趣味性和实用价值都很高的一次尝试。 熟悉大模型播客产品的人都知道,豆包这次对标的是谷歌NotebookLM——或者说是它最出圈的Audio Overviews功能——后者通过识别用户上传的文本、网页、视频,就可以转化成一条口语化且带有情绪表达的AI播客,深得用户喜爱。 Audio Overviews大约是在上个月开始支持中文的,但在中文播客市场砸出来的水花并没有想象中的大,一方面是众所周知的产品迁移成本,另一方面,中文播客市场体系化进度实在迟缓,用户习惯是高度分散的,这就导致了播客本身的适配场景很多,深究起来的播客用户以及潜在播客用户也不少,但商业化空间始终有限。 说回正题,我第一时间试了下豆包的AI播客,并分别投喂了两个不同的网站,一个是我写的刘强东前两天内部讲话的文章「刘强东的机巧」,另一个是B站UP主对Prompt, Agent, MCP等AI技术的科普文。 先说结论,在真正听完豆包生成的这两条AI播客之前,我对这项功能的完整程度预期并不高,原因在于,在这种复杂的任务上,目前很多主流大模型的做法还是「边吞边吐」,由此就会破坏内容输出的结构性。 但豆包已经可以做到在10分钟左右的播客篇幅里基于框架生成内容了,在「刘强东的机巧」生成AI播客的任务里,所有对话的前后呼应都很强,能听得出它是按照同一条逻辑线不断往下捋的,有点意外。 另外就是,豆包AI播客的拟人程度已经可以做到以假乱真了,这真的不是夸张,对话的流畅度、松弛感以及合时宜的抑扬顿挫,像我这种文字工作者,文章简单拿来改一改就能直接原地起个播客账号的程度。 那条硬核技术帖转播客的任务表现也相当亮眼,首次提及专业名词的时候,会贴心附上一段对这个概念的解释。整体的输出脉络,也都是建立在「我要深入浅出讲明白这条科普」这个最终目的上。 说人话,就是AI播客让内容的「可听性」变强了,哪怕注意力没有完全集中在耳朵上,这种通俗易懂的内容也变得更容易被消化。 播客——以及整个音频产业——一直以来的优势,是它不会完全参与到竞争用户注意力的零和博弈里去,大部分情况下,刷视频、聊微信、逛淘宝都是非此即彼的单一选项,但播客只占用一个耳朵,由此它能与很多不同的场景做适配。 豆包不是第一个推出这种功能的大模型,但它在应用场景上的成熟度是完全可以进到第一梯队的,不仅能把拗口的文字进行口语化改造再丝滑地表达出来,同时所有内容输出也都是基于原稿,不存在自己加戏的幻觉问题。 当然,作为新上线的功能,豆包AI播客还会经历一个漫长的迭代过程,比如目前它做不到像NotebookLM一样吃下视频内容,对话的声音、关键信息的提炼浓度,以及生成后的整体风格也都不是客制化的可选项,离用户可以随心所欲地深度使用它,尚且还有一段路要走。 但这并不妨碍我们从这个简单的小功能身上窥见AI在未来的使用场景,一切都是假以时日的问题。 虽然知道AI的技术一日千里,但每次实际体验的时候,那种奇妙感还是会忍不住涌上来。
3周前
3个月前
最近,AI 圈子里有两个事值得关注:一个是 GPT-4o 推出了新的画图模型,另一个是豆包升级了“边搜边想”功能。这两个例子都指向了一个正在越来越被人接受和认同的 AI 新范式——“模型即产品”。它听起来有点抽象,但其实可能会影响未来 AI 产品的发展形态。那么“模型即产品”到底是什么意思,它跟传统的AI方式有什么不同,为什么它这么厉害但为什么又不够普及? 什么是“模型即产品”? 简单来说,“模型即产品”就是把AI模型本身当作产品,它的核心价值来自于模型的智能和能力,而不是靠一大堆复杂的软件或界面来包装。 比如说,GPT-4o的新画图模型,你只需要上缠图片写六个字:“吉卜力风格化”,它就能直接生成一张高度还原又可爱的吉卜力动画风格图片;或者你可以基于刚生成的吉卜力漫画形象再去生成个表情包,甚至还能生成一幅四格漫画。不需要你会用Photoshop,也不用切换好几个App,一个模型就搞定了一切。 想想以前画图的流程:你得先找素材、调颜色、画线条,还得用别的工具加文字,步骤多得让人头晕。而现在,GPT-4o的画图模型把这些都“学会”了,直接给你成品。 这就是“模型即产品”的魅力——模型可以直接满足各种场景下的不同情况,而不需要你去设计复杂的工作流或者在不同的 App 之间切换。 它和传统的工作流智能体有什么区别?各自有什么优缺点? 传统的AI应用大多是“工作流智能体”模式。啥意思呢?就是通过预先设计好固定的流程,把AI模型和其他工具串起来,按部就班地完成任务。比如前一段时间很火的 Manus,如果你让它“帮我规划一下北京到山西自驾游的详细行程”,那么它会设计一个类似于 TODO List 的工作流: - 搜索北京到山西之间的景点信息 - 搜索北京到山西自驾游的攻略 - 生成详细行程 这样的工作流优点就是容易执行,按部就班就能出来结果,缺点就是不够灵活,因为 TODO List / 工作流一旦定了,就不好根据返回的结果做调整。如果搜索结果中出现了最近北京到山西之间某一段高速施工的新闻资讯,或者未来会出现极端天气的新闻资讯,那么就需要增加对绕开高速路段的搜索和天气预报的搜索,最终综合调整行程。 豆包最近测试上线的「边搜边想」功能是另一个很好的例子。不同于传统AI的“先搜后想”——模型根据你的问题,一股脑搜索一遍网络资料,然后拿着这一份固定的信息来作答,豆包会在思考过程中进行多轮搜索。也就是说,模型边回答边判断:“我是不是还缺某方面的信息?” 如果是,它会主动再搜索。如此循环,直到把问题各个方面都弄清楚为止。 就像前面行程规划的例子,“边搜边想”先搜出基本景点和交通方案,再根据这些结果想到“还需要看看最新的天气预报和当地交通情况”,于是进行第二轮搜索获取这些动态信息,最后综合各方面数据,甚至连景点之间的小交通都考虑进去,给出一个周全的行程表。 这就像一个聪明的助手,会根据手头的信息动态调整策略,而不是死板地走完预定路线。 为什么“模型即产品”很难? 既然“模型即产品”的模式这么强大,为什么不都采用这种模式呢?因为将模型训练成一个适应不同场景的通用产品,简单易用太难了: - 研发门槛高:需要有很强大的基座模型;需要有优质数据;需要专门的强化训练。 - 资源烧钱:训练模型得用超级多的计算资源,像GPU集群,小公司根本玩不起。 - 市场风险大:投入大、周期长,投资者往往更爱快见效的应用,而不是这种“慢工出细活”的项目。 - 用户体验挑战:模型再牛,也得有个好用的界面。像 GPT-4o 在聊天框就可以画图,像豆包只要选中“深度思考”就可以自动“边搜边想”。 简单科普:强化学习 说到这,有必要提一提“模型即产品”背后的核心技术——强化学习(Reinforcement Learning, RL)。简单说,就是让AI自己试错,像训练马戏团的动物一样,给它奖励和反馈,让它慢慢学会做事。 举个经典例子:AlphaGo,那个打败人类围棋冠军的AI。它没靠人类教招式,而是通过强化学习,自己跟自己下棋。赢了有奖励,输了调整策略,玩了几百万局后,它不仅学会了围棋,还发现了人类几千年没想到的招数。这就是强化学习的厉害之处——让AI自己摸索出最佳方案。 比如豆包的“边搜边想”也是通过强化训练,通过模拟的搜索数据库,以及搜索训练集,让模型一遍遍的去对给定的问题去尝试不同的关键词和思考后再搜索,一次又一次地尝试后终于偶然找到了答案,得到奖励。然后,模型再尝试理解并总结出那些能提高下次找到相似答案可能性的规律。 这种自主学习能力,是“模型即产品”能取代复杂工作流的关键。 未来展望 尽管挑战不小,但可以看到“模型即产品”已经成为AI发展的重大趋势。展望未来,我们可以期待“模型即产品”带来更多惊喜。也许再过不久,你与AI的互动将不仅局限于问答,而更像是与一个能够替你执行复杂操作的数字伙伴合作。届时,我们的许多应用场景可能被重新定义:很多以前要在人和工具之间反复切换的事情,现在一个AI模型就能包办。从创作灵感的火花,到繁琐资料的整理,再到决策方案的拿出,AI模型将直接为你提供端到端的支持。 真正聪明的AI,不是你告诉它怎么做,而是它自己知道该怎么做。