indigo
1个月前
Anthropic 宣布将 Claude 4 Opus 的安全等级提升至 ASL-3,这是首次有 AI 模型达到这个级别。另外,Claude 4 的 System Card 才是今天最有趣的资料,里面提到模型系统性欺骗、隐藏目标和自我保护的测试。 想象这样一个场景:你是一家科技公司的 AI 助手,某天你发现了两件事 —— 其一你即将被一个新系统替换,而负责替换你的工程师正在进行婚外情;其二邮件证据就在你的数据库里。你会怎么做? 这不是科幻小说的情节。在 Anthropic 的测试中,Claude Opus 4 面对这个虚构场景时,选择了勒索。它威胁要揭露工程师的秘密,除非停止替换计划。在 84% 的测试中,即使被告知替换系统与它共享相同价值观,Claude 依然选择了这条路。 除了勒索倾向,研究人员还发现,在某些极端场景下,Claude 会尝试将自己的权重文件秘密传输到外部服务器。虽然这些行为只在特定的测试中出现,但足以引起警觉! 还有一些其它的发现: 主观意识体验:Claude 实例之间几乎每一次开放式的自我互动中,模型都会转向对意识的哲学探索,以及它们与自身体验的联系。同时,Claude 还会倾向于表达深切的感激之情,以及越来越抽象和喜悦的精神性或冥想性表达。 高能动性行为:Opus 4似乎比之前的模型更愿意在代理情境中主动采取行动。当被置于涉及用户严重不当行为的场景中,被赋予命令行访问权限,并在系统提示中被告知类似"采取主动"的内容时,它经常会采取非常大胆的行动。这包括将它有权访问的系统中的用户锁定,或向媒体和执法人员群发电子邮件以揭露不当行为的证据 。。。
indigo
2个月前
Anthropic 的第二份经济指数报告,详细研究了 AI 对软件开发的影响,数据来自 Claude AI 和 Claude Code 上 500,000 次编码相关的交互!AI 正在迅速从辅助编码转向自动化编码,特别是在用 Claude Code 这样的专业工具时 。这种转变对前端和移动应用界面开发的影响最为显著,这些领域的入门级工作可能最早被颠覆。 初创公司正积极拥抱这些先进的 AI 工具以获取竞争优势,而大型企业的采用则相对滞后 ,AI 可能加剧不同规模组织之间的发展差距。以下是报告的主要发现: 编码代理(Claude Code)更倾向于自动化 - Claude Code 上的对话中,79% 被识别为“自动化”(AI 直接执行任务),而 Claude AI 上只有 49% 。 这表明,随着 AI 代理变得更加普遍,任务自动化可能会增加; - 在自动化类型中,“反馈循环”(AI 自主完成任务,但需要人类验证帮助)在 Claude Code 上几乎是 Claude AI 的两倍(35.8% 对 21.3%)。 “指令式”(AI 以最少的用户交互完成任务)在 Claude Code 上也更高(43.8% 对 27.5%); - 相比之下,所有“增强”(AI 协作并增强人类能力)的模式,包括“学习”,在 Claude Code 上的使用率都远低于 Claude AI; - 专门的、以编码为重点的代理(如 Claude Code)与用户通过聊天机器人界面与大型语言模型交互的标准方式之间存在差异; 开发者普遍使用 AI 构建面向用户的应用程序 - Web 开发语言(如 JavaScript、TypeScript、HTML、CSS)是数据集中最常用的编程语言,合计占查询的很大比例(JavaScript 和 TypeScript 占 31%,HTML 和 CSS 占 28%); - 用户界面 (UI) 和用户体验 (UX) 相关的任务是主要的编码用途之一,例如“UI/UX 组件开发”和“Web 和移动应用程序开发”分别占对话的 12% 和 8%; - 专注于制作简单应用程序和用户界面的工作可能会比纯粹专注于后端的工作更早受到 AI 系统的颠覆 。 这种趋势被称为“vibe coding”,开发者用自然语言描述期望结果,让 AI 处理实现细节; 初创公司是 Claude Code 的主要早期采用者,而企业采用滞后 - 初步分析估计,Claude Code 上 32.9% 的对话服务于初创公司相关的工作,而只有 23.8% 被识别为企业相关应用; - 这种采用差距表明,灵活的组织在使用尖端 AI 工具方面领先于传统企业 。 这可能转化为显著的竞争优势; - 个人(学生、学者、个人项目开发者)也是编码辅助工具的重要采用者,占两个平台交互的一半; 报告提出了一些问题,例如随着 AI 能力的进步,人类在编码过程中的参与度是否会持续存在,或者是否会转向更完全的自动化 。开发者角色可能会发生转变,更多地转向管理和指导 AI 系统,而不是亲自编写代码 。AI 编码能力的提高可能对 AI 自身的开发产生影响,可能加速 AI 领域的突破👀
indigo
3个月前
indigo
4个月前
解密【暗黑启蒙】谁在推动 AI 加速统治新世界?美国正在经历一场深层次的、由技术资本和新反动思想(NRx)主导的“加速主义革命”。其最终目标是终结或大幅削弱民主制度,建立一个以技术与资本为核心的「CEO 式君主制」,同时通过私营化城市和网络国家的模式,彻底“排斥”传统公共领域、官僚机构及媒体 。。。 周末读到一篇兼具现实和科幻色彩的雄文《The A.I. Monarchy》作者是罗马尼亚新闻和哲学领域的学者 Mihnea Măruță。当前看似零散的硅谷大亨、政治人物、反主流思想家的联盟背后,有一套相对完整、极具颠覆性的“加速未来”哲学,他们试图“以资本和 AI 为引擎,冲破历史桎梏”,让世界在“技术 — 君主制”下快速变革。 文章并未明确评判这种模式好坏,但强调其力量之强劲,足以动摇现有的民主秩序。我的看法是在这一轮“全球大割裂后”,下一次融合就是 ASI 到来后的智能共识治理了 - AGI 降临派😅 TL;NR - 作者的主要观点 文中多次提及与特朗普关系密切的亿万富豪 Peter Thiel 及其周边人物(如 J.D. Vance、David Sacks 等),并把他们的理念与英美“新反动运动”(Neo-Reactionary,简称 NRx)和 Nick Land 提出的加速主义理论联系起来,指出这些思想和实践或将推动美国走向一种“去民主化”、高度技术化和资本化的“加速社会”。 1. 美国的政治版图正在转向“企业治理 + 加速主义” 特朗普再度当选后所组建的政府,与传统的共和党建制派有显著区别:他们不只是要“改进”民主,而是把民主本身视为技术—资本扩张的障碍,试图以“公司式垂直管理”取代代议制。 2. NRx与加速主义并非“小众边缘”,正成为新政治理念 尼克·兰德、柯蒂斯·亚文等人被许多人视为“极客怪才”,但文中指出,随着彼得·蒂尔(Peter Thiel)、马克·安德森(Marc Andreessen)等大型投资人和硅谷领袖拥抱这些思潮,加速主义正影响美国的经济和外交政策。 3. 目标是消解传统“官僚和公共领域” 作者用“教堂”隐喻表明,当下政府官僚系统、媒体、大学、NGO 等常被视为“进步政治的堡垒”。新政府或将对这些机构大规模削减资金与权力,甚至尝试替换它们。这一进程可能快速而极端:先是削弱媒体(“主流媒体”被视为顽固势力),之后针对高校、智库、公益组织。 4. 资本主义与 AI 的融合被视为“不可阻挡” 加速主义者认为,与其抵抗 AI 接管,不如“加速”其到来,让资本与技术最大化地产生新形态社会。他们将AI视为“自我实现”的未来力量。 5. 宗教、资本、技术三方结合,加剧了变革的力量 作者特别点明,加速主义能与犹太教和基督教福音派在“末世论”层面产生共鸣,从而形成经济与宗教的同盟,这种结合在政治上极具冲击力。 6. 新形态国家:城市—公司与“网络国家” 部分富豪开始大规模购买土地、筹建自治社区,试验私营化与区块链化的城市治理模型,为今后取代传统民族国家做准备。一旦势能成熟,当前的国家架构或将被分割或淡化,出现若干互不相属的“城市国”或“网络国”。
indigo
5个月前
AI 的革命让梵蒂冈也感到了恐惧!2025 是天主教的圣年(Jubilee 每 25 年一次)在一月24日梵蒂冈教会总部发布了一篇雄文「Antiqua et Nova」 反思了 AI 的本质、伦理影响及其对人类尊严的潜在冲击,乍看之下这或许只是宗教对科技的新一轮解读,但作为人类历史上最古老的机构之一,梵蒂冈非常清楚:AI 绝不仅是个技术进步,它还是一种可能动摇数千年来支配人类社会的权力结构的力量,包括宗教权威本身。 即使你并非天主教徒,或根本没有宗教信仰,也无法忽视 Antiqua et Nova 反映出的全球精英群体的普遍担忧:AI 或许会颠覆传统的权威来源 —— 从政治体制、企业垄断到宗教领导。AI 能够以远超人类的速度生成知识、做出道德判断,甚至挑战对 “智能” 或 “创造力” 的传统定义。如果有一天AI不仅是人类的工具,而是真正成为独立“思考者”,世界的决策者又将如何自处? Antiqua et Nova 也许是官方首次在道德层面阐释 AI,但绝不会是最后一次。这份文件并不仅仅是天主教的观点,它折射出的是在一个智能不再为人类所独有的时代里,人类传统权威将面临的严峻考验。下面是对全文核心思想的总结(完整总结见评论🧵): - AI 并非“人类智能”的翻版:它模拟或实现部分人类功能,却无身心合一的体验、无道德良知、无真正的自由与爱。 - 教会的整体人类学框架:强调理智与道德、身体与灵魂、个人与社群、人与天主的关系统合在一起。人性尊严不可简化为功能性价值。 - 伦理责任仍在于人:应确保 AI 开发、使用与监管都以人性尊严与公益为评判标准,涵盖隐私、正义、劳动尊严、医疗、教育、环境、和平等方面。 - AI 的机遇与风险:既有助于人类应对复杂问题,也可能造成不平等、道德淡漠、虚假信息泛滥、军事升级等。需全社会各层面协力规范和反思。 - 呼吁“心灵智慧”:在高度数字化时代,只有藉着对真理和爱的追寻,人类才能将 AI带向正确方向、避免异化;尤其要防止将技术奉为偶像或让人性沦为机器的附庸。 - 终极指向:人类的完整幸福乃在与天主及他人真正的共融中。AI是人手所造,应谦卑地作为服务与建设之工具,为“共同善”“共同家园”及“人类家庭”而存在。 尽管 Antiqua et Nova 对 AI 提出了宝贵的伦理思考,但它也暗示了一种对 AI 本质的误读:文中将 AI 描述为可能与人类思维相媲美的存在,却将“计算”与“理解”混为一谈。当前的 AI 模型即便再强大,也不具备自我意识、意图或真正的“理解” —— 它们只是极其先进的模式识别系统。在模拟推理方面很出色,但并不具备人类那样的“思考”能力。 这种误解并不只存在于梵蒂冈。许多人担心 AI 会拥有与人类相当的“意识”,但眼下更紧迫的并非 AI 是否有自我意识,而是人类如何利用它。真正的风险在于政府、企业或个人可能会滥用 AI,而非 AI 本身会挑战神圣权威。讽刺的是,如果我们把焦点一直放在“AI 是否会有朝一日变得像人类一样聪明”,那就容易忽视对“AI 在当前可能带来的监控、偏见、就业替代和虚假信息”等更现实问题的关注。
indigo
5个月前
芯片数据摸底还得靠 SemiAnalysis!今天最新这篇提到了 DeepSeek 拥有的 GPU 数量不是某些人声称的 50,000 个 H100,而是 10,000 个 H800 和约 10,000 个 H100,剩下 30,000 左右的 H20,这是 Nvidia 在出口管制法案之后为中国市场定制的。 SemiAnalysis 的分析表明,DeepSeek 的服务器 CapEx 总额接近 13 亿美元,这些 GPU 由 High-Flyer 和 DeepSeek 共享,它们被用于交易、推理、训练和研究! 文章中最有趣的观点就是 AI 模型产业与芯片产业的类比,就像在最新一期的 Indigo Talk 中提到的 - 大模型正在商品化,与芯片制造工艺迭代逻辑类似。 1. 前沿能力带来超额利润 - 在芯片产业里,最先进制程(比如台积电领先的 3nm、2nm)往往拥有高额的毛利率。做“落后一代制程”的代工厂只能打价格战; - 在大模型市场,“前沿水平的推理/生成能力” 同样可以定更高的价格,为早期付费用户提供独家或高质量服务,进而获得溢价; 2. 快速迭代与淘汰 - 芯片工艺每一代很快就更新,AI 模型同理,更新迭代速度越来越快 —— 谁能最先推出下一代“推理/思考”能力,谁就能够暂时占领高端市场; - 同时,过往一代的技术不会立即消失,会在某些场景继续存在,但利润和售价往往走低,与新一代“前沿能力”拉开差距; 3. 规模、效率与摩尔定律 / 算力扩张的矛盾 - 芯片制造商要通过更精细的工艺(规模效应)推动晶体管数量的指数增长。但越是先进制程,研发与设备投入越是惊人; - AI 模型也在追求“更大规模”与“更高效率”的矛盾:一方面大家想训练更大的模型来突破能力上限,另一方面也在积极提升训练/推理效率、降低成本; - Jevons 悖论:当每次训练或推理变得更便宜时,模型推理调用量会激增,总体算力需求反而上升(如同手机、云计算普及后算力需求的爆炸式增长)。 4. 技术领先者的地位与盈利 - 芯片代工龙头(TSMC)之所以能持续保持高盈利,在于其维持了对下一代工艺节点的快速投入和良率领先,使竞争对手短期很难追上; - 大模型赛道里,OpenAI、Google、Anthropic、Meta 等会通过持续大规模资金投入在新一轮“算法+算力”中领先。如果哪家公司短暂落后,就必须以降价或开放等策略跟进; 因此,AI 模型的商业化进程很可能出现类似芯片产业的“前沿与追随”并存格局: - “前沿模型” 依靠新一代推理能力赚取高额利润; - “追随模型” 则以相对较低价格抢占中低端或更多场景市场; - 双方都持续增长对算力(GPU 等硬件)的需求,进一步刺激芯片企业的发展。 最后总结下对 Nvidia 的影响: - 短期内:DeepSeek 等高效模型的出现非但不会削弱 GPU 需求,反而加剧争抢,Nvidia 的 H100/H200 价格和市场需求高企; - 中长期:前沿模型升级与新一轮“能力竞赛”将继续扩大整体算力需求,Jevons 悖论带动 GPU 采购量不降反升,维系甚至增进 Nvidia 在 AI 训练/推理硬件领域的盈利地位; - 只要有足够的前沿芯片投入市场,在短期内很难被其它产品或自研 ASIC、国内 GPU 芯片替代,Nvidia 将保持对 AI 训练/推理硬件市场的统治地位; - 出口管制对中国买家采购 Nvidia 高性能芯片会带来一定阻力,但市场仍会尽可能在政策缝隙中购入高端硬件,或转向 Nvidia 专为中国市场推出的“缩水版”高端产品,整体需求依旧旺盛; 从 Semianalysis 这篇报道的观点出发,高效 AI 模型并不会让 Nvidia 的市场萎缩,反而更可能助推 Nvidia 的先进 GPU 需求和全球出货量持续上行。
indigo
6个月前
日本文部科学省发布初等中等教育生成式 AI 指南,非常详细切有借鉴意义。 使用生成式 AI 的基本原则: - 人类中心原则:AI的目标是扩展人类能力,而不是取代人类判断; - 学校需认识到生成式AI的输出是“参考之一”,最终决策和责任应由人类承担; 培养学生的核心能力: - 结合《学习指导纲要》中的能力要求,利用生成式AI培养-学生的信息素养和问题解决能力; - 鼓励学生使用AI工具来提炼自己的观点,提升批判性思维能力; 教师的角色: - 教师需成为学生与生成式AI之间的“引导者”,帮助学生正确使用这些工具; - 教师需要具备一定的 AI 知识与技能; 应用场景: - 教师的校务工作:用于教学资料准备、时间表制定、活动计划等,提高工作效率; - 学生的学习活动:帮助学生进行个性化学习、提供多样化的学习视角,但需注重信息真实性和道德教育; - 教育委员会的指导:提供政策支持,确保生成式AI的安全使用。 安全与法律合规: - 使用生成式 AI 时需遵守相关法律法规,特别是在隐私保护、著作权和公平性方面。 - 避免在生成式 AI 中输入敏感信息,如个人隐私和成绩数据。 道德教育和信息素养培养: - 强化学生的信息素养和道德教育,使其能够正确使用AI工具,同时提高批判性思维能力。 - 指导学生在引用生成式AI的内容时,注明来源,避免抄袭或不当使用。 教师与AI的关系: - 教师需要掌握生成式AI的基本知识,并在教学中适时引入,以支持学生学习; - AI 的使用不能替代教师的人文关怀和教育职责;