时政
财经
科技
虚拟货币
其他
登录
#营销炒作
关注
宝玉
1个月前
前几天 Anthropic 发布的那份报告《挫败首例由 AI 策划的网络间谍活动(Disrupting the first reported AI-orchestrated cyber espionage campaign)》 已经被很多人骂过了,这几天在 Hacker News (HN) 上也是被群嘲。 报告的核心指控是:他们发现并阻止了一个“复杂的”网络间谍行动,该行动由一个他们定性为“中国政府资助”的组织(代号 GTG-1002)发起。而最关键的一点是,这个组织使用 AI(特别是 Claude)来“编排和执行”其 80-90% 的战术行动。 社区的开发者和安全专家们非但没有感到震惊,反而将这份报告扒了个底朝天。结论几乎一边倒:这与其说是一份威胁情报,不如说是一份精心包装的营销噱头。 首先是一位安全行业的专业人士 djnn .sh 发表了一篇博文 “Anthropic 的报告闻起来就像狗屁” (Anthropic's paper smells like bullshit) 成为了 HN 上的热门讨论帖。 1. 文章中一个观点大家都很认同:“PoC || GTFO” (要么拿出证据,要么滚蛋)。 一份严肃的网络安全威胁情报报告,是有行业标准的。你必须提供 IoCs(入侵指标)——比如攻击者使用的域名、IP、文件哈希值;以及 TTPs(战术、技术和程序)——他们具体是怎么做的。 而 Anthropic 的报告里几乎都没有什么证据。 HN 社区对此的共识是:这份报告“技术含量为零”。 用户 rfoo: > 别说和现代报告比,“就连卡巴斯基十年前一份关于 Duqu 2.0 的报告,都包含了扎实的技术链接和归因理由。” Anthropic 这份报告简直是“slop”(残羹剩饭)。 用户 padolsey: > 这似乎成了一种新常态。“AI 实验室(点名了 GPT-5 的系统卡和微软的红队测试)都喜欢‘pro-research’(自称支持研究),但发布白皮书时却从不附带代码和数据。” 一份没有技术细节、无法验证、无法让其他安全团队据此设防的“报告”,根本不配被称为“威胁情报”。 2. 如果说缺少 IoC(入侵指标)只是“不专业”,那么 HN 网友 gpi 则发现这份报告在“有意夸大”。 网友 gpi 发现,Anthropic 在发布报告后,悄悄地将从“每秒数千次请求”改为了“数千次请求,经常每秒多次”。 > Edited November 14 2025: > Corrected an error about the speed of the attack: not "thousands of requests per second" but "thousands of requests, often multiple per second" 任何一个技术人员,都绝不可能把这两个概念搞混,大概率是营销部门在撰写报告时,为了戏剧效果而添油加醋,结果被技术社区抓包。 3. 牵强的归因和逻辑,一切都是为了营销 报告中最具煽动性、也最受诟病的,就是将攻击“归因”于“中国政府资助的组织”。 网友 snowwrestler 给出了一个非常专业的分析:将攻击归因于“国家行为体”有三种途径: (1) 纯粹假设: 默认来自某国的坏事都是政府干的(这显然不靠谱)。 (2) 技术签名: 攻击手段与已知的、公开的 APT(高级持续性威胁)组织的特征库相匹配。 (3) 情报工作: 来自 NSA、FBI 等真正情报机构的内部信息。 Anthropic 不太可能有(3),如果他们有(2),就应该像其他安全公司一样,公布这些技术签名证据。但他们没有。 那么,他们为什么要这么做? 用户 woooooo 提出了一个经典的“职场政治”洞察: “归咎于‘国家级超级间谍’是最好的免责声明。‘我们被超级间谍黑了’听起来,可比‘我们被一个随便的家伙(rando)给黑了’要体面得多。” 用户 prinny_ 则看得更深:“在缺乏证据的情况下,这种归因看起来更像是一种政治游说,目的是让美国政府介入,并成为那个让资金(投资)不断流动的‘大投资者’。” 在原文中就已点明,报告的结尾赫然写着: “网络安全社区需要……试验将 AI 用于防御……” HN 用户 DarkmSparks 做了个总结: “Anthropic 提出了一堆未经证实的指控,关于一个他们没具体说明的新问题。然后在最后,Anthropic 提出了解决这个未说明问题的方案——给 Anthropic 钱。” “这根本就是伪装成威胁报告的宣传材料,”用户 cmiles74 评论道,他还发现 Anthropic 在八月份也发过类似的“营销式”报告。 4. APT 真的会用 Claude 吗? 抛开营销和政治不谈,HN 社区对这个攻击场景本身也提出了一个巨大的“黑人问号”:一个“高度复杂”的 APT 组织,真的会选择用 Claude 这种公开的、需要绑银行卡的商业 API 来执行核心任务吗? 网友 KaiserPro 分享了他的一线经验:他曾在一家 FAANG 担任 SRE,也参与过对内部安全 AI 的“红队测试”。他的结论是:“AI 有点用,但对于‘协调’(coordination)任务来说,帮助不大。” 他最尖锐的质疑是:“你的 API 是绑定了银行账户的。在一个非常公开的系统上‘Vibe Code’一个指挥控制系统(C&C),这似乎是个非常糟糕的选择。” 网友 neuroelectron 则提出了一个充满讽刺的悖论: “我的 Claude 拒绝了我 10 个提示中的 9 个,并对我进行‘安全教育’,但它却被用于真正恶意的间谍活动?谁来让这个逻辑自洽一下。” 社区普遍认为,一个真正的 APT 组织,更有可能使用自己私有的、离线的、不受审查的本地模型,而不是一个处处受限、日志完备的美国公司产品。 5. 当 AI 泡沫遇上安全 FUD(恐惧、不确定和怀疑) 用户 EMM_386 提出了一个“洗地”角度: “我们都搞错了。Anthropic 不是一家安全厂商……这份报告的受众不是 SOC(安全运营中心)的工程师,而是政策制定者和 AI 安全研究者。它警告的是一种新的攻击模式。” 这个观点试图将这份报告从“技术文档”的失败,挽救为“政策白皮书”的成功。 但这个观点立刻遭到了反驳。用户 padolsey 回应道:“就算如此,他们也完全可以分享脱敏的 Prompts、攻击的编排模式。他们这种刻意的模糊,根本不是安全行业的运作方式。” 也许 Anthropic 根本就没有一个能写出合格威胁报告的安全团队。他们只是在自己最擅长的 AI 领域上,看到了一个他们认为或者希望存在的问题,然后用他们最不擅长的方式(写安全报告)把它包装起来,其核心目的,依然是 AI 圈的老套路:制造 FUD (恐惧、不确定和怀疑),然后销售解药。 这就像当年索尼 PS2 刚发布时,有传闻说“伊拉克在购买数千台 PS2 来制造超级计算机”一样,听起来很酷,但本质上都是营销。
#Anthropic
#AI网络间谍
#营销炒作
#安全报告质疑
#中国归因
分享
评论 0
0
宝玉
1个月前
这个提示词价值不大,是一场精心的营销,目的是为了卖课,不过这个帖子的讨论本身是有价值的。 下面的内容是 AI 辅助总结,提示词见评论: ---- (打开编辑器,泡上一杯咖啡) 朋友们,今天 Reddit r/ChatGPT 上的一个热帖,可以说是“信息量与槽点齐飞”。 起因是,一位老兄发帖宣称,自己在 2025 年“测试了 1000 多个 ChatGPT Prompt”之后,终于找到了一个“能持续击败其他所有框架”的“必胜公式”。 他将其命名为 DEPTH 方法。 在深入看社区的“花式吊打”之前,我们必须先理解这个“靶子”是什么。 什么是 DEPTH 公式? 这位老兄(下称 OP)提出的 DEPTH,是一个用于构建“超级 Prompt”的缩写框架: - D - Define Multiple Perspectives (定义多重视角):别只说“写个邮件”,而要说“你现在是三个专家:一个行为心理学家、一个直效营销文案和一个数据分析师。请你们合作……” - E - Establish Success Metrics (建立成功指标):别只说“写好点”,而要说“目标是 40% 的打开率、12% 的点击率,必须包含 3 个心理学触发点。” - P - Provide Context Layers (提供上下文):别只说“为我公司写”,而要说“背景:我们是 B2B SaaS,月费 200 刀,目标是过度劳累的创始人……” - T - Task Breakdown (任务拆解):别只说“搞个活动”,而要说“第一步:识别痛点。第二步:制造钩子。第三步:构建价值。第四步:软性 CTA。” - H - Human Feedback Loop (人类反馈闭环):别接受第一版答案,而要说“请从 1-10 分为你的回答打分... 低于 8 分的请自行改进。如果你不确定某些事实,标记为 [UNCERTAIN] 并解释原因。” OP 甚至给出了一个“战绩”:用这个方法生成的 LinkedIn 帖子,拿到了 14% 的参与度和 47 条评论。 表面上看,这套理论非常结构化、非常“专业”,对吧? 然而,当这套“屠龙术”被扔进 HN(Reddit)这个“试炼场”时,社区的反应却远非“顶礼膜拜”。这场讨论迅速演变成了对当前 Prompt Engineering 乱象的一次“集体会诊”。 我为大家提炼了三个核心的交锋点。 焦点一:公式虽好,但为何产出的还是“AI 口水话”? 这场讨论的第一个转折点,来自一位叫 FineInstruction1397 的用户。他“学以致用”,真的把 OP 那个关于“AI 取代工作”的 LinkedIn 帖子例子扔给了 ChatGPT。 结果呢?他得到了这么一段: > “ChatGPT 没在抢工作。它在抢‘借口’。 > …… > AI 不会淘汰工人——它只会淘汰浪费。 > …… > ⚡ 学习 AI 的 CEO 将取代那些不学习的。 > 你是想被取代——还是被放大?” 这……怎么说呢。 社区的反应非常直接。一位用户的评论(by jmlusiardo)一针见血:“这简直是‘不是 A,而是 B’这种 ChatGPT 陈词滥调(clichés)的大杂烩。” 另一位用户 BrooklynNets 在看到另一个类似例子后,更是火力全开:“这根本就是一堆充斥着破折号和无意义 emoji 的‘垃圾’(slop)。它就像一个 LinkedIn 帖子和一条 Instagram 字幕生下来的私生子,我的大脑已经被训练到可以自动划过这种内容了。” 这立刻引爆了讨论区的核心焦虑:为什么我们用了如此复杂、精妙的 Prompt 公式,得到的却依然是这种“一眼假”的、充满“AI 味儿”的平庸内容? OP 显然没有(或者说,回避了)回答这个问题。 焦点二:真正的“老炮儿”,是如何让 AI “说人话”的? 当 OP 的“必胜公式”被证明无法解决“AI 味儿”这个核心痛点时,真正有价值的讨论开始了。社区里的“老炮儿”们纷纷亮出了自己的“独门秘籍”。 这才是这场讨论的“金矿”所在。 秘籍一:“以毒攻毒”,用 AI 对抗 AI 用户 ophydian210 提出了一个非常“黑客”的思路: > “永远不要用同一个 AI 来生成内容和清理内容。这里面偏见太重了。 > 我会用 Gemini 2.5 或 Chat 5(编者注:指代当时的先进模型)来跑我的复杂 Prompt,然后把产出的内容,原封不动地扔给 Claude,让它来重写和润色。” 这个“套娃”策略瞬间点醒了很多人。利用不同模型之间的“偏见”差异(Bias)来进行交叉验证和“去味”,这显然比 OP 那个自嗨的“H - 反馈闭环”要高明得多。 秘籍二:“喂投”胜过“指令” OP 的方法论核心是“下指令”(Instructions)。但多位用户指出,对于“风格”和“语气”这种微妙的东西,“给例子”(Examples)远比“下指令”有效。 就像用户 Sequoia93 说的:“(高质量的)例子胜过指令。” 用户 TheOdbball 补充得更具体:“(AI 的)训练数据有问题。你必须把你自己的东西写下来,做成 Markdown 文件,喂给你的 LLM(比如放到一个写作文件夹里),然后告诉它:‘就按这个风格写,但要写得更好’。” 秘籍三:拆解“说人话”的精细指令库 用户 Rasputin_mad_monk 显然对 OP 的粗糙框架很不满。他直接甩出了自己珍藏的“自然语言指令库”,展示了什么才叫“精细活”: - 自然语言与流畅度:“像和熟人聊天一样重写这个”、“像在喝咖啡时和同事聊天一样解释这个”。 - 情感连接:“增加回复的温度,同时保持专业性”、“用更具同理心和理解力的方式重述”。 - 个性化触感:“多用‘你’和‘我们’让内容更个人化”。 - 技术平衡:“简化技术信息,但保持准确性”、“像一个专家在进行随意交谈那样解释”。 对比一下,OP 那个“建立成功指标”的指令,显得多么生硬和机械。 焦点三:这是“屠龙术”,还是一场“营销秀”? 随着讨论的深入,社区的“牛鬼蛇神”们开始扒 OP 的“底裤”。 用户 keepcalmandmoomore 发出了最强烈的质疑:“你声称‘测试’了 1000 多个 Prompt?你的测试方法是什么?你如何客观地给每一个目的都不同的 Prompt 打分?” 用户 mafudge 紧随其后:“没有公布测试方法论,就不可信。” 这时,讨论的性质变了。大家开始意识到,这可能根本不是一次诚恳的“经验分享”,而是一次精心策划的“内容营销”。 - 它有一个朗朗上口的缩写(DEPTH)。 - 它声称解决了所有人的痛点(“必胜公式”)。 - 它给出了一个(可能杜撰的)惊人战绩(“14% 参与度”)。 果不其然,当有用户问“我能不能把我糟糕的 Prompt 自动转换成你的 DEPTH 格式”时,OP(Over_Ask_7684)兴奋地回复:“当然!我已经为你创建了一个手把手的指南,快去我‘个人简介里的链接’查看吧!” 图穷匕见。 正如用户 Historical_Ad_481 的总结:“果然,最后还是个营销广告。” 我们的总结:框架是死的,人是活的 这场讨论从一个“必胜公式”开始,最后演变成了一场对“AI 时代内容创作”的深刻反思。 OP 提出的 DEPTH 框架本身有错吗?其实没错。它很好地总结了“结构化 Prompt”的精髓——即从“模糊的聊天”转向“清晰的简报(Briefing)”。 这确实是 Prompt Engineering 的第一课。 然而,社区之所以“震怒”,是因为 OP 将其包装为“终极答案”来贩卖焦虑和课程。 而 HN(Reddit)社区的集体智慧告诉我们: 1. 没有“银弹”:在“AI 味儿”和“人类创造力”的博弈中,没有一劳永逸的公式。 2. “协作”而非“指挥”:正如用户 Gabe_at_Descript 所言,真正高明的用法,是把 AI 当作“创意团队”来“协作”,而不是当作“机器”来“指挥”。 3. “验证”重于“生成”:AI 负责辅助(Assist),人类负责验证(Validate)。真正的价值核心,永远在 OP 公式里的最后一步——“H”(Human Feedback Loop),而这恰恰是 OP 最不重视、只想用 AI 自动化的环节。 归根结底,这个所谓的“DEPTH”框架,或许只达到了“深度”的表皮。而真正的深度,藏在社区那些“喂投”、“套娃”和“精细指令”的实战经验里。 你对这个 DEPTH 框架怎么看?你又有哪些让 AI “说人话”的独门技巧?不妨在评论区聊聊。
#ChatGPT
#Prompt Engineering
#AI内容创作
#营销炒作
#AI味
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞