#AI服务器

fin
2周前
今天Amazon裁员3万人,比2022年行业收缩期裁的还厉害,原因很简单 买GPU的钱capex不够,导致AWS增速下降,被市场严厉的惩罚了,只能砍工资来省钱买GPU,让财报好看一点,营造一个AWS增速触底的故事 每一个互联网公司的SDE打工人,都应该买入Nvidia/amd作为风险对冲,弥补自己被GPU挤出价值链的风险 ------------------------- 进入2024~2025年,美国SDE们就业差的主要因素已经不再是21年的大幅过度扩张,也不再是薪资更低的海外技术中心抢饭碗,暂时还不是AI提效造成需求降低,而是来了一个新的大boss:GPU capex GPU capex在互联网公司正在创造一种诡异的繁荣性萧条: 公司业绩增速很好看,股价也节节高升,但是员工的工资开支成了管理层腾挪不开的问题,每个人都要担心自己的工作,同时因为持续性裁人,留守的员工的工作压力越来越大,人心惶惶,和大萧条时代无异 这不是传统的行业萧条,而是资本在人力与算力之间的激进再分配 Amazon这次裁员3万人,大概从两个月前就有风声了,年中perf review往年都是7月,这次到8月中下才开始,RTO的政策,也是裁员的重要考虑因素(借口)。AGI组肯定是一个都不动,PXT, device and service, 运营,都会是重灾区,按惯例AWS应该会晚一点再裁,等到AWS reinvent之后再裁,人尽其用 而在故事的另一端,AWS Q2的未完成订单(backlog)达到1950亿美元,同比增长25%。 这说明客户想买但AWS交付不了,需求持续火爆,GPU买的不够快不够多 在AI服务器供应跟不上需求爆炸性增长的时代,opex(工资)换capex就能带来公司的业绩提升,资本会毫不留情的惩罚一切不把这条路线贯彻到底的CSP/Hyperscaler Meta开启每半年5%悄悄裁员模式基础之上,刚刚裁掉AI org的600人,而且还悄悄裁掉了很多部门的director,也是同一个逻辑:AI data center不够用,一年之内对未来18个月的capacity计划上修了三次,每次以为高估了需求,都会在几个月之后才痛苦的发现原来是低估了 互联网公司内部真的不需要人了吗?当然不是,招人的budget砍掉之后,只能倒逼公司内部增效来弥补 目前最激进的互联网大公司各种手段都用上了,内部tool耗费大量人力做各种agent功能,一键部署鼓励vibe,定了KPI每个部门AI使用率要达标,各级汇报AI使用进度和案例,还规定互相定期交流学习 一顿操作猛如虎,目标仅仅只是希望把大家的工作效率提升~20%,而已 接下来可能会发生什么? 为了增速,为了竞争,当公司提效遇到瓶颈,裁员也裁到只剩大动脉了,opex已经榨不出油水了,公司下一步只会继续牺牲现金流,甚至像ORCL一样,开始为了增速而不惜冒风险举债 Nvidia/AMD也会继续用手里的巨额现金推动投资,支持合作伙伴投入AI capex,就像openAI做的那样 这一切最大的受益者都会是半导体全产业链公司,未来可能会出现一个新常态:半导体公司的利润率会反超互联网公司 但他们也承担了最大的风险:当VC/Hyperscaler的前期投资看到token需求减缓时,甚至只是需求增长速度减缓(不再是一年数倍),一定也会毫不留情的砍单,这个传导的速度会非常快,会比半导体公司的投产周期要快的多 这一步什么时候会出现,一个参考指标是,企业渗透率接近50%的时候。 2000年3月互联网泡沫破灭时候,美国互联网渗透率大概在52%左右(另有一组数据时43%) 目前互联网大厂的genAI daily user渗透率正在从50%向90%迈进,而广大行业公司的AI采用率不到10%,增速暂时是有保障的,每一代科技革命增速最快的时候就是全社会公司采用率10%迈向50%的阶段 Cisco泡沫的历史不会简单重现,我相信这一轮信息比上一轮要充足太多太多,一直会有足够多的泡沫怀疑论者警醒,至少会让泡沫破灭的时候不会那么惨烈
Andy Stewart
1个月前
AI时代,领先从拥有你的私人AI超算开始! 老板们,经过一年的筹备,懒猫家族终于上新啦: 懒猫AI算力舱携手懒猫微服新款给老板们准备的国庆AI好礼! 🚀 懒猫AI算力舱X3 外型巧妙的融合了星战科幻光辉与超跑的飞驰曲线,强大算力澎湃运行,一台穿越星河的AI算力中心 战力分析: 1.品类:家庭私人AI超算 2.用途:AI研究、模型推理、个人知识库 3.参数:英伟达芯片,275T澎湃真算力,64GB超大显存,70B大模型,无会员畅玩CUDA AI应用 4.购买理由:AI性能怪兽、超大显存、赚钱利器,领先从拥有你的私人AI超算开始! 5.典型应用:个人知识库、视频搜索、联网搜索、文生图、文生视频、网页播客、音视频文字提取等.... 🔥 懒猫微服新款 外型取材于流浪地球,赛博朋克小桌搭,小小身材,巨大能量,一台来自未来赛博世界的AI数据中心 战力分析: 1.品类:家庭私人AI服务器 2.用途:网盘相册看电影,2000多个私有云应用随心玩 3.参数:7盘位全固态,高性能标压处理器,最高支持96TB存储,IO性能提升50倍,容量提升12倍 4.购买理由:内网穿透直连不限流、虚拟组网免费远控、极智安全防黑客、上千应用超省钱 5.典型应用:AI相册、私有网盘、懒猫智慧屏、懒猫清单、家庭影院、网盘挂载、私密云办公套件等...... 💖 更多惊喜 还有懒猫AI浏览器超强袭来,你私人的AI数据分析引擎: 1.速度超快:基于Chromium内核打造,兼容性超强,速度超快 2.超级隐私:去除Google追踪代码,100%隐私浏览器,超级安全很放心 3.口袋超算:内置AI插件,配合算力舱和微服,手机也可在外运行70B大模型,随时随地访问家中超算 插件:历时半年倾力打造,多标签手机浏览器,还可以支持Chrome插件安装 5.完全免费:浏览器和AI插件完全免费,不收任何会员费,无限Tokens畅游AI世界 🔥预售火爆开启 AI时代,领先,从拥有你的私人AI超算开始!
戴尔(dell)今天的财报很有意思, 典型的“增收不增利”。 AI服务器需求强劲,积压订单价值高达117亿美元,但其调整后毛利率却下滑至18.7%,不及市场预期,导致股价暴跌。 这背后的元凶。。。。。。 就是英伟达😂 不得不说,英伟达利用自己的芯片优势,还在不断扩大自己的供应链“链主”的优势,牢牢掌控全链条利润。 这实在是太狠了! nvda怎么控制/挤压全供应链利润的? 是通过推出MGX平台。 这是一个官方的模块化的参考架构,旨在帮助下游的系统oem厂合作伙伴大幅缩短研发周期、降低成本,从而加速整个英伟达技术生态的普及。 和CUDA类似,MGX也是英伟达用来深度绑定产业、构建强大护城河的生态体系,但它和cuda作用在不同的层面,cuda“锁软件”,MGX“锁硬件”。 MGX的核心是为英伟达全套硬件(GPU、Grace CPU、BlueField DPU、ConnectX网卡)的协同工作定义了最优解。它规定了这些组件如何以最高带宽、最低延迟的方式互联。这意味着,任何偏离MGX架构的设计,都可能在性能上无法与“官方标配”匹敌。 一旦服务器厂商(如超微)围绕MGX标准投入资源、优化了生产线和供应链,就形成了一条技术路径依赖。未来,当英伟达推出新一代GP时,它们几乎肯定会与MGX标准无缝衔接。届时,已经“上车”的厂商可以最快速度跟进迭代,而那些试图走自己路线的厂商,则面临着巨大的研发和时间成本风险。这种模式将合作伙伴的未来与英伟达的路线图深度绑定。 随着基于MGX的服务器在性能、成本和上市速度上展现出越来越大的优势,市场的天平会逐渐倾斜。届时,采用MGX将不再是一个选项,而是获得市场竞争力的“必需品”。 而mgx所干的活,原来正是戴尔的利润丰厚的主业。 更可怕的是,英伟达的野心不止于服务器,而是整个数据中心。MGX是其“数据中心即计算机(The data center as a computer.)”理念的物理载体。当整个行业的硬件创新都围绕着MGX展开时,英伟达就从一个芯片供应商,真正成为了下一代计算平台的“架构师”。 更长远来说,MGX在硬件层定义标准,CUDA在软件层锁定开发者。未来,两者会更加紧密地结合。英伟达可以推出需要特定MGX硬件特性才能最优运行的CUDA新功能,形成“软件要求硬件、硬件优化软件”的完美闭环,让竞争对手彻底无法追赶。 这就像PC时代的“Wintel联盟”(微软Windows + 英特尔Intel)。英特尔定义了主板和CPU标准,微软定义了操作系统。戴尔、惠普等厂商在此基础上进行外壳设计、组装和销售。它们能赚钱,但产业链中最大头的利润,被平台定义者——英特尔和微软赚走了。 今天,英伟达正在试图成为AI服务器时代的“Wintel”。CUDA是操作系统(软件平台),MGX则是主板和系统架构(硬件平台)。而英伟达,如果战略成功的话,将成为ai时代的微软+intel!