indigo
3周前
Deepmind 使命的核⼼ — 不仅要构建通⽤⼈⼯智能,还要⽤它来理解智能的本质以及计算的极限!Demis 在播客中提到:“如果我们构建出 AGI,并将其⽤作⼼智的模拟,然后与真实的⼼智进⾏⽐较,我们就能看到其中差异,以及⼈类⼼智可能仍然存在的特殊之处 ⋯ ⋯ 这可以追溯到图灵机的本质问题,它的极限是什么?” Demis 倾向于认为宇宙中不存在不可计算的事物,大脑和物理世界本质上都是图灵机可模拟的。 Roger Penrose 认为大脑可能存在量子效应,意识可能不完全是经典计算;那么图灵机(经典计算)想达到同等现象,可能需要量子计算。但 Demis 提出了一种可能性:也许我们只需要从量子系统获取数据,来构建更好的经典模拟;换言之,量子并不必然意味着“不可用经典来近似”。 一个更大胆的假设,物理学的基本单位可能不是能量或物 质,⽽是“信息”。⽣物学、人类自身乃⾄意识,最终都可以被理解为信息处理系统。光、热、触感看似不同,但进入感官后都是信息流;如果以信息视角理解生物机制,就可能更系统性地干预疾病。 所以,Demis 带领的 Deepmind 构建 AI 的最终⽬的,就 是为了找到计算能⼒的极限, 从⽽理解宇宙的极限。这一点与 Elon 带领的 xAI 殊途同归了 —— Understand The Universe ✨ Elon 经常说他在 AI 领域最终的对手就是 Google ...
indigo
4周前
理解任何事物的五个关键的思维模型!成为精英思考者的理解“框架”👀 1. 第一性原理思维(First Principles Thinking) 将问题或想法通过“拆解”还原为最基本、无可争议的要素,然后从这些基本事实出发重新构建,而不是依赖现有的假设或类比。通过剥离可能具有误导性的假设,从根本真理出发,往往能产生全新的见解。 2. 分解 / 分而治之(Decomposition) 将一个庞大、复杂的系统分解为更小、更易于消化的部分,以便单独理解每个部分及其与整体的关系。大脑无法一次处理所有信息。通过连接理解后的小碎片,可以更清晰地拼凑出系统整体的运作方式。 3. 识别关键驱动因素 / 帕累托法则(Identify Key Drivers / Pareto Principle) 专注于那些对系统或问题有巨大影响的少数因素(即 20% 的变量驱动了 80% 的结果)。并非所有变量都同等重要。精英思考者会优先考虑高杠杆点(核心驱动因素),从而更深刻地理解系统的行为方式。 4. 结构映射(Structural Mapping) 通过可视化(如概念图或草图)来展示系统的各个部分是如何组合在一起的,无论是物理上还是逻辑上的。一旦看到结构,模式就会显现。这利用了空间推理能力,将抽象关系具体化(例如:类别 -> 子类别),并有助于利用已知系统进行类比。 5. 抽象层级 / 放大与缩小(Levels of Abstraction / Zoom In & Out) 灵活切换视角,既看“大局”(宏观架构),也看“细节”(微观机制)。理解来自于细节与概览之间的张力。“放大”看大局能提供背景和最终目的;“缩小”看细节能提供精确性和内部运作机制。精英思考者知道深刻的洞察往往来自于连接这两个层级。 配图来自 Polymath Investor(Substack)- 解释了如何通过拆解问题(第一性原理、分解)、抓住重点(关键驱动因素)、可视化关系(结构映射)以及多维度视角(抽象层级)来建立对任何复杂事物的深刻理解✨
indigo
1个月前
“我们内部已经有 Gemini 3 水平的模型,并且有信心很快发布,之后还会有更强的型号!” OpenAI 首席研究负责人 Mark Chen 在 Core Memory 的播客上透露。Sam 的职责之一就是“放大紧迫感”,他自己的角色也类似,会刻意强调竞争压力让整个组织保持高压前进,所以大家才会看到那封内部的“红色警戒”备忘录🚨 前两天和 OpenAI 的同学吃饭还提到他们内部确实都在体验 Gemini 3。因为但单看公开基准测试不足以判断真实差距,让足够多的研究员在真实任务中摸一摸,再形成集体判断。 Mark 说自己有一个“私藏的数学难题”(“42 问题”),专门用来测试不同模型的推理能力 —— 包括最新的“思考模型”。到目前为止,所有模型都只能接近最优解,还没有完全攻克它,这对他来说是一件“好事”:说明还有空间可以继续前进。 在 SWE‑bench 这类软件工程基准上,Google 模型的表现虽然不错,但在“用多少数据/算力达成一定效果”这件事上,还有明显的优化空间,而 OpenAI 在这方面的算法储备非常强,这是他们下一轮反击的一个核心筹码! 过去两年。OpenAI 其实把大量资源都投向推理模型,预训练和后训练的“肌肉”有所退化;最近半年,在组织层面重新把焦点拉回预训练。Mark 明确反对“Scaling 已死”的说法,他认为在预训练和数据塑形上还有巨大空间; 现在要做的是更精细的“数据塑形”和“合成数据”,通过更聪明的预训练策略,让模型从“模仿人类写作/代码”的模式,转向真正学会更高层次的抽象✨