#Google

indigo
1周前
Google 要干戴森环?今天 Google Research 团队发表了一篇关于 Project Suncatcher(太阳捕手)项目的研究论文「迈向未来太空高可扩展性 AI 基础设施系统设计」,评估了配备 TPU 的太阳能卫星和自由空间光链路,在太空中进行大规模机器学习计算的可行性☀️ 论文认为“Suncatcher 项目”是可行的,有四个关键条件: 1. 网络带宽可行性:通过“拉近距离”来实现 AI 集群所需的超高带宽(10 Tbps 级别)远超当前太空技术。通过让卫星编队在极近距离(数百公里或更短)飞行 ,使得接收功率大幅增强。这允许在太空中直接使用地球上成熟、高带宽的商用光通信硬件 (COTS DWDM),而无需发明新技术。 2. 轨道动力学可行性:利用“被动安全”编队 为解决近距离飞行的碰撞风险,论文设计了一种“自由落体”星座。在这个编队中,卫星依靠自然的轨道动力学来维持一个“呼吸式”的、可预测的相对位置。这种设计几乎不需要消耗燃料来维持编队(零 delta-v 需求),仅需少量燃料对抗扰动,使其在工程上可行。 3. 芯片生存可行性:商用 TPU 的“超预期”耐受性 项目的一个核心问题是地球数据中心的 AI 芯片(TPU)能否在太空辐射下工作。测试结果出人意料地乐观:Google Trillium TPU 对总电离剂量 (TID) 的耐受性几乎是 5 年任务最低要求的 3倍。对于单粒子效应 (SEEs),其导致的错误率对于 AI 推理任务“很可能是可接受的”,故障概率极低。 4. 经济可行性:发射成本即将与“地球电费”持平 该方案的经济临界点是发射成本降至 $200/KG。这一价格下,将 AI 硬件发射到太空的年均摊销成本(例如 Starlink v2 模型为 $810/kW/y) 将与地球数据中心支付的年均电费($570-$3,000/kW/y)大致相当。 基于 SpaceX 等公司的可复用火箭(如 Starship)发射成本的降幅,改成本预计在 2035 年左右可以实现。 --- Google 的母公司 Alphabet 是 SpaceX 的早期投资人,目前还持有 8% 左右的股份。未来十年,随着发射成本的大幅下降,近地轨道的空间经济也会快速发展,这里会涌现出非常多的创业公司和应用场景,我会持续帮大家关注,投资机会都在论文里😄 下图展示了轨道平面内一个示例性 81 颗卫星星座的完整轨道周期轨迹,其平均集群高度为 650 公里。集群半径 R=1 公里,在地球引力作用下,相邻卫星间的最近距离在约 100-200 米之间振荡🛰️
Y11
2周前
2025年的一天,Google的会议室里,一场持续四小时的内部会议刚刚结束。 屏幕上展示着最新数据:他们的AI模型Gemini用户已达4.5亿,云服务年收入突破500亿美元,自研的TPU芯片正成为全球AI算力的核心之一。 但会议室里的气氛并不轻松——十年前,就是在这样的技术优势下,他们发明了Transformer,却让OpenAI和Anthropic从自己的实验室里"走"了出去。 一、从微厨房到核心引擎(2000-2007) 一切的起点,藏在Google早期的微厨房里。 2001年的某个午餐时间,工程师George Herrick和刚入职的Noam Shazeer聊起一个想法:"如果能压缩信息,就等于理解信息。"当时没人在意这个闲聊,直到他们决定用整个周末验证这个猜想。 在那个"人人都能尝试新想法"的时期,Sanjay Ghemawat——Google最顶尖的工程师之一——只说了一句"我觉得这很酷",就给了他们坚持的底气。他们花三个月搭建了一个基于互联网文本的概率模型,能预测下一个词出现的概率。这个被命名为PHIL的系统,不仅成了搜索"你是不是要找"的拼写纠正功能,还在2003年被Jeff Dean改造成AdSense的核心——那个让Google广告收入暴涨的系统,至今仍在创造巨额财富。 二、AI黄金十年(2007-2017) 2007年,Google翻译的首席架构师Franz Och带着一个"12小时翻译一个句子"的项目找到Jeff Dean。三天后,Dean用并行计算技术将时间压缩到100毫秒——这就是深度学习在产品中的首次惊艳亮相。 与此同时,斯坦福AI实验室的Sebastian Thrun被Larry Page"收购"进Google。他带来的不仅是AI教授团队,还有两个未来的关键人物:后来OpenAI的Sam Altman和Meta的Chris Cox。2011年,Andrew Ng、Jeff Dean和Greg Corrado启动了"Google Brain"项目,用16000个CPU核心在YouTube视频帧上训练出能"认出猫"的神经网络。当这个结果在全员大会上展示时,所有人都意识到:"AI时代来了。" 2012年,AlexNet在ImageNet竞赛中掀起深度学习革命,而Google则用5.5亿美元收购了DeepMind。这家由Demis Hassabis创办的公司,后来用AlphaGo让世界见证了AI在围棋领域的突破。 三、Transformer:改变世界的"猫论文"(2017) 2017年,Google Brain的八人团队发表了《Attention Is All You Need》。这篇论文用"注意力机制"彻底改写了语言模型的历史,成为GPT、LLaMA等一切大模型的基础。但当时的Google内部,对此的反应更像是"这是下一个技术迭代"——没人预料到,这会成为OpenAI崛起的直接导火索。 论文的主要作者Noam Shazeer曾向领导层提议:"我们应该用Transformer重构整个搜索系统",但被以"安全风险"为由搁置。更讽刺的是,他们的实验模型需要五轮对话才能继续,被内部戏称为"五轮机器人"。 四、ChatGPT的惊雷(2022) 2022年底,当ChatGPT以"史上最快达到1亿用户"的速度引爆全球时,Google才真正意识到危机。Sundar Pichai立即启动"Code Red"计划——全力追赶。 2023年,Google推出Bard,却因一个事实错误导致股价单日暴跌8%。直到2024年,整合了DeepMind和Brain的Gemini 1.5发布,拥有100万token上下文窗口,才算真正与GPT-4分庭抗礼。 五、创新者的困境 今天的Google拥有顶级模型、自研芯片、庞大云服务和全球最大的搜索流量,但依然面临抉择:是全力押注AI,还是保护每年数百亿美元的搜索广告收入? 内部有人说:"Google就像一个手握核武器的国家,却不敢轻易开火。"他们担心激进投入会动摇根基,又害怕保守会错失未来。但历史往往证明,真正的巨头会在危机中找到破局点——就像当年AdSense和YouTube的诞生。 六、未来的十字路口 Google正以"快速但不鲁莽"的节奏推进:统一AI团队、加速模型迭代、探索新商业模式。Gemini已整合进搜索、云服务和企业应用,甚至开始测试自动驾驶的AI决策系统。 但AI的战争才刚刚开始。OpenAI的GPT-5、Anthropic的Claude 3、微软的Copilot 4,以及无数创业公司,都在争夺下一个万亿市场。Google能否用它的全栈优势,在这场"AI搜索"的战役中重新定义自己? 25年过去,从微厨房的一个想法到如今的AI巨头,Google的故事仍在继续。或许正如Jeff Dean常说的:"真正的创新,往往藏在没人看好的角落。"而这一次,他们能否抓住那个改变未来的"角落"?答案,将在未来五年揭晓。