时政
财经
科技
登录
#GPU
关注
ariel reyez romero
2周前
Oracle上调年度财务预期,归因于云服务需求的强劲增长,导致股价连涨两天,显示AI基础设施需求持续上升。 Nvidia在德国部署10,000个GPU,启动欧洲首个工业AI云,支持制造业AI应用。 AI基础设施公司Nebius Group(原NBIS)在英国部署数千块的Nvidia B300 GPU集群,支持AI计算需求。
英伟达财报:狂飙营收难掩毛利下跌?· 17 条信息
#Oracle
#财务预期
#云服务
#AI基础设施
#NVIDIA
#德国
#GPU
#AI云
#制造业
#Nebius Group
#英国
#AI计算需求
分享
评论 0
0
勃勃OC
2周前
看了一个视频,讲解为什么高斯模糊(blur)在设计中有这么高的地位,我才发现 John Ivy 的地位确实不是吹出来的。 07年之后,随着计算机算力提升(主要是GPU),各大操作系统都不约而同的加入了即时高斯模糊算法,改进他们的UI 模糊可以让人获得“焦点”感,引导人视觉上的关注,相当于负空间,音乐中的静默 微软和苹果的做法又那么一些不同。苹果将高斯模糊直接做成了雾化玻璃效果,成为iOS所有前置菜单的核心 而微软的Windows Phone UI则完全摒弃了模糊,成为一团浆糊。最后在Windows 10里才又吧背景模糊加了回来 模糊,真的很重要 你学会了吗?
#高斯模糊
#设计
#UI
#GPU
#John Ivy
#苹果
#微软
#操作系统
分享
评论 0
0
ilovelife
3周前
#每日推荐 一款全新的工作流 IDE 解决的痛点 - 本地环境配置繁琐,跨平台开发痛苦 - 团队协作时环境不一致,调试很痛苦 - 想要一个统一的工作区管理各种项目 - 在 Windows 上调用 GPU - 只想写代码,不想折腾环境和 UI - 不想关注底层技术细节,只想专注于工作流编排 官网:
#工作流
#IDE
#本地环境配置
#跨平台开发
#团队协作
#Windows
#GPU
#编码效率
#软件开发
分享
评论 0
0
蓝点网
1个月前
内部工程师提前泄露英伟达正在研发的 #APU 处理器,可能使用联发科的 #Arm 处理器和英伟达自己的 GPU,主要适用于笔记本电脑。 此前已经有消息表明英伟达与联发科合作开发 Arm 芯片,也就是参与与高通在 Arm 笔记本电脑市场的竞争,当然也会和 AMD APU 竞争。 查看全文:
#APU
#ARM
#GPU
#笔记本电脑
#英伟达
#联发科
#高通
#AMD
#芯片
分享
评论 0
0
勃勃OC
1个月前
阿联酋“星门”项目的第一阶段预计将于2026年投入运行,初始装机容量为200兆瓦,配备最多达10万块英伟达(Nvidia)的GB300图形处理单元(GPU)。
#阿联酋星门项目
#英伟达
#GPU
#科技
#能源
分享
评论 0
0
头条热点
1个月前
NVIDIA 表示不会将任何 GPU 设计发送到中国进行修改以符合美国的出口管制
#NVIDIA
#出口管制
#GPU
#中美关系
分享
评论 0
0
老猿说OldApe
1个月前
川普为了扩大美国招商引资的效果,总是故意放大数据……除了孙正义很喜欢,英伟达的黄仁勋也激情演讲…… Blackwell 系统:“一个GPU单元。它重70磅,有6万个零件,功率1万瓦。” 川普:“黄仁勋,他将在未来四年投入高达5000亿美元,用于完全在美国制造有史以来最强大的人工智能芯片。” 黄:非常荣幸来到这里。英伟达在60年后首次重新发明了计算。事实上,IBM的阿温德非常清楚,自60年代以来,计算机基本上没有改变。 IBM System 360非常完美地描述了我们今天使用的计算机。中央处理器、操作系统、硬件和软件的分离、输入输出子系统、多任务处理。 我们今天用来描述计算机的所有词语,实际上都是在1964年发明的,也就是我出生后的第二年。 黄仁勋:这么久之后,我们再次重新发明了计算机。这就是一个处理器的样子。就在右边那个。人们说它是一个GPU。那是一个GPU单元。它重70磅,有6万个零件,功率1万瓦。 ……
#川普
#招商引资
#美国
#孙正义
#英伟达
#黄仁勋
#人工智能
#芯片制造
#GPU
#Blackwell系统
#IBM
#科技创新
分享
评论 0
0
Hao Huang
3个月前
nvda这公司长期是没有问题的,只要黄仁勋不退休或者嗝屁。你可以今年看空但是不能一直看空。 新技术的发展还是要符合Gartner曲线。就算nvda靠过量的算力供给自己戳破了自己的泡沫,恐怖的下两代gpu算力提升加上软件上的优化最后把算力成本降低一百倍将开启真正的AI爆发的大航海时代
#NVDA
#黄仁勋
#Gartner曲线
#GPU
#AI
#技术发展
分享
评论 0
0
華爾街分析猿
3个月前
輝達 GTC 2025 沒說破的真主角:HBM 記憶體 AI 零組件變化快,許多都有被新技術取代的風險, 但 HBM 是少數具「高度確定性」的核心元件。 未來三代 HBM 頻寬升級幅度驚人, 頻寬越寬 → 資料讀取越快 → GPU效能越強。 HBM 是 GPU 的 Scaling Law。
#輝達
#GTC2025
#HBM記憶體
#AI
#GPU
分享
评论 0
0
CyberCat
3个月前
老马:Dojo 1现在已经负责了5-10%左右的FSD训练,Dojo 2相较于Dojo 1将会有10倍的提升! 除了有5万张GPU的cortex中心,Dojo将可能有突破性创新为AI训练提速!!
#Dojo
#AI训练
#FSD
#GPU
#突破性创新
分享
评论 0
0
空空 🌟 狞猫世界第一可爱!
3个月前
这几年摩尔定律在GPU方面已经死了,如果按每单位价格性能来看甚至已经死透了。
#摩尔定律
#GPU
#性能
#价格
分享
评论 0
0
勃勃OC
3个月前
英伟达 ($NVDA) 的 CoWoS 产能分配预估显示,2025年Blackwell GPU的出货量将超过550万块。
#英伟达
#GPU
#blackwell
#2025
#生产能力
#CoWoS
#出货量
分享
评论 0
0
勃勃OC
4个月前
金融界正密切关注英伟达即将发布的财报,并广泛猜测其对市场的影响。 分析师和投资者持乐观态度,预计英伟达可能推动市场上涨,因为其在人工智能、数据中心和GPU领域具有重要地位。讨论围绕英伟达的每股收益预期、营收增长以及出口管制对华等地缘政治因素的影响展开。 虽然许多人期待积极结果,但也有人希望股价回调,以便在更低价位买入。目前,英伟达股价在200日移动均线附近波动,进一步加剧了市场紧张情绪。 市场普遍认为,英伟达的表现可能巩固或扰乱科技行业的整体走势。
英伟达财报:狂飙营收难掩毛利下跌?· 17 条信息
#英伟达
#财报
#市场影响
#人工智能
#数据中心
#GPU
#地缘政治
#出口管制
#股价
#投资者
分享
评论 0
0
背包健客
4个月前
生物学DeepSeek来了 2025年2月19日,Arc 研究所的 Patrick Hsu 和 Brian Hie 团队联合斯坦福大学、加州大学伯克利分校、加州大学旧金山分校以及英伟达的科学家,发布了有史以来最大的生物学人工智能模型——Evo-2,其在规模上堪比当前最强大的生成式人工智能大语言模型,但其训练仅使用了 2000 多个英伟达 H100 GPU,且该模型完全开源。 该模型训练了从单细胞的细菌、古菌到真核生物以及多细胞的植物以及人类的生命之树中的 12.8 万个基因组 DNA 序列,从而能够实现对所有生命域的理解、建模和设计遗传密码,从头开始编写整个染色体,甚至从头设计生命,还能准确预测所有类型的基因突变(包括编码基因和非编码基因)的影响。 Evo-2 的训练使用了 2000 多个英伟达 H100 GPU,并得到了英伟达研究人员和工程师的合作支持。更重要的是,Evo-2 是完全开源的,在 GitHub 上共享了模型参数、训练代码、推理代码以及训练使用的 OpenGenome 2 数据集。世界各地的研究人员可以通过英伟达 BioNeMo 平台免费访问以及部署 Evo-2。
#生物学
#DeepSeek
#Evo-2
#人工智能
#生物学模型
#大语言模型
#开源
#Arc研究所
#英伟达
#GPU
#科学研究
#斯坦福大学
#加州大学伯克利分校
#加州大学旧金山分校
分享
评论 0
0
澎湃新闻-能见度
4个月前
史上最强AI?马斯克20万块GPU烧出的是史上能耗最高大模型
#AI
#马斯克
#GPU
#大模型
#能耗
#史上最强
分享
评论 0
0
新的希望
4个月前
清华团队ktransformer项目,可以把DeepSeek的推理成本急剧降低,4090单卡就能跑满血版DeepSeek-R1, 相当于把【GPU】的一部分运算挪到【CPU+内存】上。 如果这个方案迅速落地,就能把原本需要至少200万元才能享受的服务,现在20万元绰绰有余。 说明AI逐渐平民化,另外内存的股票可以先找起来。
#ktransformer
#DeepSeek
#GPU
#CPU
#AI平民化
#内存
#清华团队
#科技创新
分享
评论 0
0
向阳乔木
4个月前
6万张显卡之谜:一文看懂DeepSeek的真实算力 今天读卓克讲Deepseek的三篇文章,AI总结做些笔记。 Deepseek到底有多少张H100显卡? 坊间传闻中DeepSeek拥有5万张H100计算卡。 但实际上,DeepSeek的计算卡主要由上一代卡和阉割版本的卡组成。 据Semianalysis分析,DeepSeek大约有6万张卡。 包括A100、H800、H100各1万张,以及3万张H20。 Semianalysis用四大维度推算的: 1️⃣ 英伟达芯片产能 & 美国出口记录 2️⃣ 服务器采购成本逆向推算 3️⃣ 技术文档反推模型算力需求 4️⃣ 母公司投资能力评估 💡 关键结论: • 总芯片6万张,但实际算力仅≈1.95万张H100水平 • 受出口管制影响,低算力H20芯片占比达50% DeepSeek的训练成本仅为600万美元? 说法有误导性。 这仅仅是DeepSeek自己公布的V3模型预训练费用:数据费用 + H800 GPU运行费用。 实际总花费远高于此,包括购买GPU的7亿美元、搭建服务器的9亿美元,以及四年运营成本9.44亿美元,总计约26亿美元。 将600万美元作为DeepSeek的训练成本会严重低估实际投入,让人误以为大语言模型开发的门槛很低。 DeepSeek R1 是从GPT的模型里蒸馏出来的吗? 不是从GPT的模型里蒸馏出来的。 Perplexity的CEO和Stable Diffusion的创始人都明确表示R1不是抄袭或蒸馏。 开源社区(GitHub)也普遍认为R1不是蒸馏出来的。 DeepSeek持续提交大语言模型的不同版本,且都是MIT协议,允许使用者随意使用和修改。 多家公司复现R1模型,包括Hugging Face, Perplexity, 英伟达等,进一步证明了R1并非来自GPT模型的蒸馏:如果R1是蒸馏来的,这些公司不可能在短时间内商用,并且不怕与OpenAI打官司。 DeepSeek的数据是从GPT偷来的? 目前并没有确凿证据。 微软的安全员观察到,疑似与DeepSeek有关联的个人使用了OpenAI的API接口窃取数据,但并未指明是DeepSeek官方行为。 大模型公司常从数据公司购买数据,数据公司可能从OpenAI等处"薅羊毛",但这并不意味着DeepSeek直接盗取了GPT的数据。 "薅羊毛"是行业内普遍现象,通过API接口收集用户问题和回答,并将其整理为训练数据出售。(去年很多免费提供ChatGPT的平台,看来都是"薅羊毛"的) R1为什么有时会说自己是GPT? 主要原因是训练数据中可能包含来自GPT的标签 或者是互联网上存在AI生成的内容,被模型抓取并输出。 R1是国运级别的成果吗? 不恰当,甚至会害了Deepseek 梁文峰认为,创新应尽可能减少干预和管理,让每个人自由发挥,创新是自己生长出来的,而非可以计划或安排的。 过分强调R1的国运意义或将其视为武器,会对DeepSeek的创新发展产生负面影响。 R1模型的创新之处究竟在哪里? 核心:在微调阶段引入不依赖监督微调的强化学习,使得微调后的模型性能大幅增长。 传统微调方法可能会降低模型性能,而R1通过直接强化学习,避免了奖励模型带来的评判标准割裂问题。 R1的微调方法类似学生通过大量练习自己总结规律,而不是依赖老师的讲解。 R1在微调阶段需要更多的算力,但带来的性能提升远超传统方法。 R1的微调思想与AlphaGo Zero类似,都是通过自我学习和迭代来提升性能。 另外, DeepSeek在V2和V3版本中采用了多种降低成本、提高计算卡利用率的技术。技术包括Multi-Token Prediction、FP8混合精度、DualPipe等。 R1 与AlphaGo Zero的共性 方法论相似 - 🧠 自我学习机制:不依赖人工标注数据 - ♟️ 迭代优化路径:多轮次自我进化 - 🏆 奖励驱动:简化但明确的评估标准 - 🚀 创新突破性:突破传统方法天花板 实现差异 - 🤖 数据生成方式:R1通过候选答案筛选 vs AlphaGo自我对弈 - 🎯 应用领域:NLP复杂任务 vs 围棋规则明确场景 - ⚙️ 技术复杂度:语言模型需处理开放域问题
#DeepSeek
#显卡
#算力
#AI
#GPU
#技术分析
分享
评论 0
0
勃勃OC
4个月前
Supermicro $SMCI 已全面投产 NVIDIA Blackwell 机架级解决方案,该方案搭载 NVIDIA HGX B200。 这对 NVIDIA $NVDA 意义重大,因为它加速了 Blackwell AI 基础设施的部署,推动下一代 HGX B200 GPU 在数据中心的普及。 Supermicro 的大规模生产增强了 NVIDIA 的供应链,以满足 AI 和高性能计算的日益增长的需求。今天 $SMCI 上涨 8%,$NVDA 上涨 5.3%。 SMCI还没倒闭?还没被查? 奇怪。。。
#Supermicro
#NVIDIA
#生产
#机架级解决方案
#HGX B200
#AI基础设施
#GPU
#数据中心
#供应链
#高性能计算
分享
评论 0
0
勃勃OC
4个月前
关于ASIC和GPU的这个比较很有意思 除了通用计算无法被取代(正如x86历史所展现的那样)之外, 还有这么一个有趣的事实: 加密行业最初使用 GPU 进行挖矿,随后转向 ASIC,但 3 年后又回到了 GPU,因为它们的性能越来越强大。 因此有人认为在未来 3-5 年内,ASIC 不会取代 GPU。
#ASIC
#GPU
#加密行业
#挖矿
分享
评论 0
0
Jeff Li
5个月前
半导体深喉媒体SemiAnalysis发文称,DeepSeek 获得了1万个H800 和约1万个 H100。2021年美国出口管制前,公司已弄到1万片A100。他们还订购了3万个 H20。这些 GPU由幻方量化和 DeepSeek 共享,用于交易模型和AI研究。 DeepSeek 的服务器资本支出总额接近 13 亿美元,运营成本高达 7.15 亿美元。
#半导体
#DeepSeek
#GPU
#AI研究
#服务器资本
分享
评论 0
0
indigo
5个月前
芯片数据摸底还得靠 SemiAnalysis!今天最新这篇提到了 DeepSeek 拥有的 GPU 数量不是某些人声称的 50,000 个 H100,而是 10,000 个 H800 和约 10,000 个 H100,剩下 30,000 左右的 H20,这是 Nvidia 在出口管制法案之后为中国市场定制的。 SemiAnalysis 的分析表明,DeepSeek 的服务器 CapEx 总额接近 13 亿美元,这些 GPU 由 High-Flyer 和 DeepSeek 共享,它们被用于交易、推理、训练和研究! 文章中最有趣的观点就是 AI 模型产业与芯片产业的类比,就像在最新一期的 Indigo Talk 中提到的 - 大模型正在商品化,与芯片制造工艺迭代逻辑类似。 1. 前沿能力带来超额利润 - 在芯片产业里,最先进制程(比如台积电领先的 3nm、2nm)往往拥有高额的毛利率。做“落后一代制程”的代工厂只能打价格战; - 在大模型市场,“前沿水平的推理/生成能力” 同样可以定更高的价格,为早期付费用户提供独家或高质量服务,进而获得溢价; 2. 快速迭代与淘汰 - 芯片工艺每一代很快就更新,AI 模型同理,更新迭代速度越来越快 —— 谁能最先推出下一代“推理/思考”能力,谁就能够暂时占领高端市场; - 同时,过往一代的技术不会立即消失,会在某些场景继续存在,但利润和售价往往走低,与新一代“前沿能力”拉开差距; 3. 规模、效率与摩尔定律 / 算力扩张的矛盾 - 芯片制造商要通过更精细的工艺(规模效应)推动晶体管数量的指数增长。但越是先进制程,研发与设备投入越是惊人; - AI 模型也在追求“更大规模”与“更高效率”的矛盾:一方面大家想训练更大的模型来突破能力上限,另一方面也在积极提升训练/推理效率、降低成本; - Jevons 悖论:当每次训练或推理变得更便宜时,模型推理调用量会激增,总体算力需求反而上升(如同手机、云计算普及后算力需求的爆炸式增长)。 4. 技术领先者的地位与盈利 - 芯片代工龙头(TSMC)之所以能持续保持高盈利,在于其维持了对下一代工艺节点的快速投入和良率领先,使竞争对手短期很难追上; - 大模型赛道里,OpenAI、Google、Anthropic、Meta 等会通过持续大规模资金投入在新一轮“算法+算力”中领先。如果哪家公司短暂落后,就必须以降价或开放等策略跟进; 因此,AI 模型的商业化进程很可能出现类似芯片产业的“前沿与追随”并存格局: - “前沿模型” 依靠新一代推理能力赚取高额利润; - “追随模型” 则以相对较低价格抢占中低端或更多场景市场; - 双方都持续增长对算力(GPU 等硬件)的需求,进一步刺激芯片企业的发展。 最后总结下对 Nvidia 的影响: - 短期内:DeepSeek 等高效模型的出现非但不会削弱 GPU 需求,反而加剧争抢,Nvidia 的 H100/H200 价格和市场需求高企; - 中长期:前沿模型升级与新一轮“能力竞赛”将继续扩大整体算力需求,Jevons 悖论带动 GPU 采购量不降反升,维系甚至增进 Nvidia 在 AI 训练/推理硬件领域的盈利地位; - 只要有足够的前沿芯片投入市场,在短期内很难被其它产品或自研 ASIC、国内 GPU 芯片替代,Nvidia 将保持对 AI 训练/推理硬件市场的统治地位; - 出口管制对中国买家采购 Nvidia 高性能芯片会带来一定阻力,但市场仍会尽可能在政策缝隙中购入高端硬件,或转向 Nvidia 专为中国市场推出的“缩水版”高端产品,整体需求依旧旺盛; 从 Semianalysis 这篇报道的观点出发,高效 AI 模型并不会让 Nvidia 的市场萎缩,反而更可能助推 Nvidia 的先进 GPU 需求和全球出货量持续上行。
#半导体
#GPU
#SemiAnalysis
#DeepSeek
#NVIDIA
#出口管制
#中国市场
分享
评论 0
0
MM Panorama
5个月前
股市的反应总是滞后的 比如deepseek v3我都推荐国内研发团队vscode+cline用了快一个月了吧 r1的论文一个礼拜前submit的 这一两天市场才大幅反应 今天美国推出openai operator模型、据说堪比phd的智力水平 再说了训练成本低 需要GPU少 但是不意味着不能水平扩容啊! 要追求更高的性能算力 软件算法调优也不能独立支撑 nvda只是暂时受影响罢了 因为市场/投资者现在普遍认为“美国ai行业是不是过度配置了计算资源”,这才影响了投资信心。 可开源只会导致实例部署越来越多,硬件需求越来越大,何况拥有GPU优势的企业只会继续追加,保持优势。 所以,更可能的是:最后还是会军备竞赛。 市场需要时间反应。接下去几天我很好奇openai operator的评测。
#股市
#deepseek_v3
#研发团队
#VsCode
#Cline
#r1论文
#美国
#OpenAI_Operator
#智力水平
#训练成本
#GPU
#水平扩容
#性能算力
#软件算法调优
#NVDA
分享
评论 0
0
空空 🌟 狞猫世界第一可爱!
5个月前
又是这样,编码的时候CPU累死累活,GPU在旁边看。
#CPU
#GPU
#计算机性能
#并行计算
#硬件负载
分享
评论 0
0
Oasis Feng
5个月前
几番调教后,被 Gemini 2.0 Flash (Experimental) 的录音转录效果惊艳到了!当即把过去用的巨费 GPU 还效果不好的 MacWhisper 卸载了。 一段 1 小时出头的 AAC 会议录音上传 AI Studio 后,显示约占 127K tokens(已超过 2.0 Flash Thinking 的输入上限),转录 + 润色 + 分段总结 用时不到 1 分钟。
#Gemini 2.0 Flash
#录音转录
#AI Studio
#MacWhisper
#GPU
#AAC会议
#转录效率
#人工智能
分享
评论 0
0
James Lt
5个月前
AMD未来堪忧。游戏事业部在24年收入本就大减,25年估计更难。数据中心增长现在成为其主要驱动力,但是它的instinct GPU,估计要受到英伟达很大的影响。
#AMD
#游戏
#数据中心
#NVIDIA
#GPU
#市场竞争
#财务表现
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞