今天阿里 Qwen 系列大模型的 C 端产品 千问 App 上线了,我参与了产品内测,写了一篇评测笔记: 对它的第一感受是:简洁、克制、All‑in‑one,阿里终于把产品做简单了。复杂能力收进一个主对话窗口,核心在主 Chat:结构化回答、长文档理解更加稳健,图片、音视频、深度思考和深度研究能力都装一起了。在我看这不是一次升级,应该是重做了一款新产品,并做了品牌升级。 产品简介,有些设计非常精巧: 比如底部这个「+」,用户可以一键录音/录像/拍照/传文件,现场捕捉直接纳入对话链路;比如我想现场录音现场分析转译,并不需要专门的录音软件和设备,录完后导出文件,再把文件喂给大模型,在千问里,这些操作是一步到位的。 「实时记录」这个功能不仅能够录现场,还能直接录制手机系统里的音频,我看了下采用的直播屏幕的技术,比如我想录制一段视频号里的话,并转文字,非常方便。 看英文书,拍张照片给千问,我可以拿到翻译好的文字,也可以得到一个中文图片,拍的书页里的图片都能保留。 多模态真正放到手边了,还贼方便,图、文、音、PDF 在一个窗口里连续处理,体验像瑞士军刀:偏工具属性,面向效率而非陪聊。 显然,千问这个产品阿里是很重视的,他们开始从 B 端基座走向 C 端入口,发力很明显。还有一点是,现阶段全功能免费,额度基本够用。非常值得试一试的产品。
昨天晚上突然发现,貌似谷歌的这个 AI 服务已经对几乎所有地区免费开放了,注意是几乎,意思是得能访问 google//非常严谨的说法。 为了信息的准确性,我问了一些不同地区的朋友,确实,无论是在 Google App,还是在各种浏览器——Chrome、Safari、豆包、Atlas、Dia、Comet——上打开谷歌的搜索框,都能使用 AI Mode 了。如果你的页面是中文,AI Mode 会被翻译成“AI 模式”。 看一下这个产品的发布历史,时间线大概是这样子: Google 的 AI 模式(AI Mode)在 2025 年 3 月首次推出,最初是 Google Search Labs 中的一项实验性功能。 2025 年 5 月 20 日:在 Google I/O 2025 大会上宣布向本国用户推出。 2025 年 6 月:开始在少数国家/地区推出。 2025 年 10 月:该服务扩展到全球 200 多个国家和地区,并支持超过 35 种新语言(包括简体和繁体中文),成为一项全球性的功能。 到了 11 月,能用 Google 搜索的差不多都能用 AI Mode 了。 为什么 AI Mode 这个产品值得拿出来聊呢? 1、搜索这件事,Google 做了二十多年。从最初的蓝色链接,PageRank,到后来的知识卡片,再到现在的 AI Mode,搜索的形态正在发生剧烈的变化。我们可以观察一个现金流和巨无霸产品自身的变革。毕竟 Google 的搜索实在是太赚钱了,而 AI Mode 是无广告形式的对话框,谷歌在革自己的命吗? 2、从全球视角看,这是一件 AI 普惠的事情。根据 2025 年的最新数据,谷歌的搜索用户大概在 50 亿的量级,每天处理约 85 亿 次搜索请求,而 AI Mode 目前是免费提供给所有谷歌搜索用户的,让世界各个角落的用户,都可以体验和使用 AI 的能力。 在我来看,这很了不起。
成为一套独立的系统 周末研究了一下中国的芯片发展,写了一篇墨问,并且发了公众号。 现在这篇公众号文章已经超过五万阅读了。我看了下上个月的的数据,公众号推荐引擎带来的阅读量比我自己的订阅用户带来的还多了。 这说明我在公众号的阅读量,逐渐被推荐引擎接管了。订阅多少、文字性好不好、是不是真情实感,也越来越不重要了。获得算法的青睐才是最重要的。 如果说未来生产内容也被 AI 接管了,谁能看到这些内容也被 AI 接管了,那么,作为人类,是不是就只剩下“看”这么一种选择了呢?文字视频,似乎都是如此。 这让我想起贾樟柯写的这段话: “在北京,相对来说我自己是一个独立的系统,虽然多少有些封闭,但我在其中可以焦点集中地专注于自己的工作。从一开始我就对自己的创作有一个比较完整的规划,希望能够逐渐在电影中建立自己的精神世界。这是一个非常有吸引力的工作方法,让我能不太在意创作之外的事情,包括影展的得失和票房的好坏。因为这两者都不是我的终极目标,让我焦灼的永远是艺术上的问题,而艺术问题是你自己的事情,与圈子无关,与他人无关。” 多好的状态啊,羡慕贾导。也许墨问可以成为这样一种独立的系统?maybe 推特更差,即便这篇笔记曝光是 1 万,打开阅读的能有一百人不错了。