#中国归因

宝玉
15小时前
前几天 Anthropic 发布的那份报告《挫败首例由 AI 策划的网络间谍活动(Disrupting the first reported AI-orchestrated cyber espionage campaign)》 已经被很多人骂过了,这几天在 Hacker News (HN) 上也是被群嘲。 报告的核心指控是:他们发现并阻止了一个“复杂的”网络间谍行动,该行动由一个他们定性为“中国政府资助”的组织(代号 GTG-1002)发起。而最关键的一点是,这个组织使用 AI(特别是 Claude)来“编排和执行”其 80-90% 的战术行动。 社区的开发者和安全专家们非但没有感到震惊,反而将这份报告扒了个底朝天。结论几乎一边倒:这与其说是一份威胁情报,不如说是一份精心包装的营销噱头。 首先是一位安全行业的专业人士 djnn .sh 发表了一篇博文 “Anthropic 的报告闻起来就像狗屁” (Anthropic's paper smells like bullshit) 成为了 HN 上的热门讨论帖。 1. 文章中一个观点大家都很认同:“PoC || GTFO” (要么拿出证据,要么滚蛋)。 一份严肃的网络安全威胁情报报告,是有行业标准的。你必须提供 IoCs(入侵指标)——比如攻击者使用的域名、IP、文件哈希值;以及 TTPs(战术、技术和程序)——他们具体是怎么做的。 而 Anthropic 的报告里几乎都没有什么证据。 HN 社区对此的共识是:这份报告“技术含量为零”。 用户 rfoo: > 别说和现代报告比,“就连卡巴斯基十年前一份关于 Duqu 2.0 的报告,都包含了扎实的技术链接和归因理由。” Anthropic 这份报告简直是“slop”(残羹剩饭)。 用户 padolsey: > 这似乎成了一种新常态。“AI 实验室(点名了 GPT-5 的系统卡和微软的红队测试)都喜欢‘pro-research’(自称支持研究),但发布白皮书时却从不附带代码和数据。” 一份没有技术细节、无法验证、无法让其他安全团队据此设防的“报告”,根本不配被称为“威胁情报”。 2. 如果说缺少 IoC(入侵指标)只是“不专业”,那么 HN 网友 gpi 则发现这份报告在“有意夸大”。 网友 gpi 发现,Anthropic 在发布报告后,悄悄地将从“每秒数千次请求”改为了“数千次请求,经常每秒多次”。 > Edited November 14 2025: > Corrected an error about the speed of the attack: not "thousands of requests per second" but "thousands of requests, often multiple per second" 任何一个技术人员,都绝不可能把这两个概念搞混,大概率是营销部门在撰写报告时,为了戏剧效果而添油加醋,结果被技术社区抓包。 3. 牵强的归因和逻辑,一切都是为了营销 报告中最具煽动性、也最受诟病的,就是将攻击“归因”于“中国政府资助的组织”。 网友 snowwrestler 给出了一个非常专业的分析:将攻击归因于“国家行为体”有三种途径: (1) 纯粹假设: 默认来自某国的坏事都是政府干的(这显然不靠谱)。 (2) 技术签名: 攻击手段与已知的、公开的 APT(高级持续性威胁)组织的特征库相匹配。 (3) 情报工作: 来自 NSA、FBI 等真正情报机构的内部信息。 Anthropic 不太可能有(3),如果他们有(2),就应该像其他安全公司一样,公布这些技术签名证据。但他们没有。 那么,他们为什么要这么做? 用户 woooooo 提出了一个经典的“职场政治”洞察: “归咎于‘国家级超级间谍’是最好的免责声明。‘我们被超级间谍黑了’听起来,可比‘我们被一个随便的家伙(rando)给黑了’要体面得多。” 用户 prinny_ 则看得更深:“在缺乏证据的情况下,这种归因看起来更像是一种政治游说,目的是让美国政府介入,并成为那个让资金(投资)不断流动的‘大投资者’。” 在原文中就已点明,报告的结尾赫然写着: “网络安全社区需要……试验将 AI 用于防御……” HN 用户 DarkmSparks 做了个总结: “Anthropic 提出了一堆未经证实的指控,关于一个他们没具体说明的新问题。然后在最后,Anthropic 提出了解决这个未说明问题的方案——给 Anthropic 钱。” “这根本就是伪装成威胁报告的宣传材料,”用户 cmiles74 评论道,他还发现 Anthropic 在八月份也发过类似的“营销式”报告。 4. APT 真的会用 Claude 吗? 抛开营销和政治不谈,HN 社区对这个攻击场景本身也提出了一个巨大的“黑人问号”:一个“高度复杂”的 APT 组织,真的会选择用 Claude 这种公开的、需要绑银行卡的商业 API 来执行核心任务吗? 网友 KaiserPro 分享了他的一线经验:他曾在一家 FAANG 担任 SRE,也参与过对内部安全 AI 的“红队测试”。他的结论是:“AI 有点用,但对于‘协调’(coordination)任务来说,帮助不大。” 他最尖锐的质疑是:“你的 API 是绑定了银行账户的。在一个非常公开的系统上‘Vibe Code’一个指挥控制系统(C&C),这似乎是个非常糟糕的选择。” 网友 neuroelectron 则提出了一个充满讽刺的悖论: “我的 Claude 拒绝了我 10 个提示中的 9 个,并对我进行‘安全教育’,但它却被用于真正恶意的间谍活动?谁来让这个逻辑自洽一下。” 社区普遍认为,一个真正的 APT 组织,更有可能使用自己私有的、离线的、不受审查的本地模型,而不是一个处处受限、日志完备的美国公司产品。 5. 当 AI 泡沫遇上安全 FUD(恐惧、不确定和怀疑) 用户 EMM_386 提出了一个“洗地”角度: “我们都搞错了。Anthropic 不是一家安全厂商……这份报告的受众不是 SOC(安全运营中心)的工程师,而是政策制定者和 AI 安全研究者。它警告的是一种新的攻击模式。” 这个观点试图将这份报告从“技术文档”的失败,挽救为“政策白皮书”的成功。 但这个观点立刻遭到了反驳。用户 padolsey 回应道:“就算如此,他们也完全可以分享脱敏的 Prompts、攻击的编排模式。他们这种刻意的模糊,根本不是安全行业的运作方式。” 也许 Anthropic 根本就没有一个能写出合格威胁报告的安全团队。他们只是在自己最擅长的 AI 领域上,看到了一个他们认为或者希望存在的问题,然后用他们最不擅长的方式(写安全报告)把它包装起来,其核心目的,依然是 AI 圈的老套路:制造 FUD (恐惧、不确定和怀疑),然后销售解药。 这就像当年索尼 PS2 刚发布时,有传闻说“伊拉克在购买数千台 PS2 来制造超级计算机”一样,听起来很酷,但本质上都是营销。