最近有一些感悟和大家分享一下。 过去十年,互联网的基本逻辑很清晰:你想获取信息,就去搜索,点击一个网页,看完内容,平台靠广告或订阅赚点钱,内容创作者也有一份收益。这种模式运转得并不完美,但大家起码有活路。 但AI的出现,正在一点点改变这个逻辑。 你现在打开一个AI助手,输入一个问题,不需要跳转网页,它就直接告诉你答案。这背后其实是AI在抓取全网内容,吸收完后用自己的语言重新组织一次。但你有没有发现,这整个过程中,原作者、原网站的存在感几乎为零。用户越来越少访问原始网站,那些提供内容的人,也就越来越难以维持下去。 这是一场流量的重新分配。只是内容创作者从这场分配中获得的更少了。 我们可以来看看一些数据。根据Similarweb的数据,过去一年全球人类的搜索流量下滑了15%左右。听起来不多,但对那些严重依赖搜索流量的网站来说,是直接影响生存的。 科学类网站的访问量下滑了10%,健康类网站跌幅甚至达到31%。再比如Wikipedia、Stack Overflow这类以公共贡献为核心的网站,也出现了大幅下降。这些地方过去是AI训练的金矿,但现在它们反而成了受害者。 你可能会说,这不就是技术进步的代价吗?但我们需要分清楚一件事:技术进步不是让原来的价值体系彻底断裂,而是要有新的分配机制去承接它。 现在的问题是,AI吃掉了流量,但没留下任何报酬。 有些平台开始行动了。Cloudflare开发了人类与AI访问分流的识别技术,能区分访问者是人还是机器人。Tollbit这样的公司也在做AI爬虫计费中间件,让网站可以向AI索取费用。ProRata则干脆和AI工具商合作,在回答中插入广告,再把收入分给原始内容提供者。 这些都在试图回答一个问题:AI时代,内容该怎么赚钱。 有趣的是,一些AI公司也在意识到自己不能再像早期那样“吃白食”了。OpenAI已经陆续和多家媒体签署了内容授权协议。Google也在测试一种“让网站明确告知AI能不能抓取”的协议标准。这些动作说明,内容方的议价能力还没有完全丧失。 不过这套体系要能真正跑通,还有很多结构性障碍。 1️⃣技术标准还没统一。现在不同的AI公司有不同的抓取策略,网站根本无法一视同仁地设置权限。2️⃣商业模型还没成熟。即使拦截了AI爬虫,也不代表能立刻获得收入,还要等协议、分润机制、合作模式一套套谈好。3️⃣很多中小网站连谈的机会都没有。 所以你能理解为什么现在很多网站在关评论区、清空API接口、甚至干脆不再更新了。他们在消极抵抗。 但这真的是终点吗?也不见得。 从某种角度看,AI不是扼杀Web,而是在重构Web。只不过这次重构的主动权,并不掌握在内容创造者手里。它更像一次被动的分配冲击。 我们正在进入一种新的信息经济阶段。在这个阶段里,用户变得更懒,内容更泛化,信息的边界越来越模糊,但真正有价值、有深度的内容反而越来越稀缺。 这也是我为什么要写这篇文章的原因。 我不想单纯地谴责AI对网页的“掠夺”,也不想盲目地歌颂AI带来的效率提升。我想指出的是,我们在迎接一项新技术的同时,也在错过为它设定边界的最佳时机。 AI需要数据,数据来自网页,网页需要流量,流量来自用户,而用户使用AI越多,网页就越少有人看。这个环路如果不能打破,最终受害的不只是内容创作者,还有AI本身。 因为AI终将吃完它能吃的那一批网页,然后饿死在内容枯竭的沙漠中。 这不是危言耸听。你可以看看最近爆火的AI工具,比如Perplexity、ChatGPT或者Claude。你会发现它们给出的答案,有些已经开始重复、模糊、空洞,因为它们本身也依赖用户行为带来的反馈,而不是闭门造句。 信息生态的本质是循环,而不是抽取。今天我们谈AI如何拯救搜索,如何提升效率,其实也该谈谈如何保护那批真正提供知识和经验的人。 如果没有机制保证内容生产者能得到回报,下一代AI可能就找不到什么值得学习的内容了。 我们常说,AI正在重写互联网。但在这段重写的过程中,我们是不是也该留一个位置,给那些还在默默写作、回答、上传的人?