时政
财经
科技
虚拟货币
其他
登录
#GPU
关注
Tigris 会讲课教授是好老师
1天前
据说这是最火的Sora 2 视频:Sam去偷GPU。说实话话,看到 OpenAI发布那一刻我不是兴奋,“AI内容洪水来了” 这是创造?其实大部分只是把旧任务备忘录点子段子,用10倍的电力包上一层视觉糖衣,再扔出来骗一眼播放。 问题不是AI不会创造,而是我们正在拿最强的技术,干最没意义的事。 你看得懂它的画面,却看不懂这段视频到底为什么要存在。这不是未来,这是算力电力资源驱动的注意力浪费系统。 技术进步没错。错的是我们太急着让AI去生成,根本没想清楚:我们要的到底是内容,还是价值?
OpenAI GPT-5发布引发用户不满,阿尔特曼回应质疑· 82 条信息
#Sora 2
#Sam
#GPU
#OpenAI
#AI内容
分享
评论 0
0
ruanyf
6天前
周五软件分享 - gpu-kill(图一):在浏览器展示 GPU 实时信息 - RustNet:监控网络流量的终端工具 - PortNote:一个自托管的仪表盘,列出被占用的本地端口 更多软件 #科技爱好者周刊(第367期)
#GPU
#RustNet
#PortNote
#软件分享
#科技
分享
评论 0
0
小互
1周前
OpenAI 投甲骨文 1000 亿建立计算中心 甲骨文投 1000 亿给英伟达买 GPU 然后英伟达又投了 1000 亿给 OpenAI 😂 问最后谁赚了? 但是好像这1000亿是来自软银的🙃
#OpenAI
#甲骨文
#英伟达
#软银
#投资
#GPU
分享
评论 0
0
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
1周前
有空也要看看TPUGPU到底在干啥
#TPU
#GPU
#技术
#研究
#硬件
分享
评论 0
0
蓝点网
1周前
英特尔与英伟达的合作不会改变英特尔 GPU 路线图,英特尔将继续推出自有 GPU 芯片和 Intel Arc 锐炫独立显卡。英特尔官方发言人称此次合作是对英特尔路线图的补充,英特尔也会继续提供 GPU 产品,所以 Arc 显卡应该还不至于这么快被砍掉。查看全文:
#英特尔
#英伟达
#GPU
#合作
#Arc 显卡
分享
评论 0
0
宝玉
2周前
OpenAI 已经重置了所有用户的 GPT-5-Codex 使用限额,让大家今天能更充分地体验新模型。这也是为了补偿之前由于部署额外 GPU 时造成的速度减慢。此外,本周内 OpenAI 将继续增加算力,以确保系统运行流畅。
ChatGPT Plus用户抗议权益缩水,萨姆奥尔特曼亲自道歉· 6 条信息
#OpenAI
#GPT-5-Codex
#使用限额重置
#GPU
#算力
分享
评论 0
0
Tw93
3周前
exo 这个思路蛮好的,将你现有的设备比如 iPhone、iPad、Android、Mac、NVIDIA 统一为一个强大的 GPU,然后项目本身支持各种不同的开源模型,并提供 ChatGPT 兼容的 API 可对外使用。
#EXO
#iPhone
#iPad
#Android
#Mac
#NVIDIA
#GPU
#ChatGPT
分享
评论 0
0
墓碑科技
3周前
谁在哀求黄仁勋收钱? 甲骨文老板和马斯克,轮番上阵。 来听听拉里·埃里森怎么说, 他说他和马斯克请黄仁勋吃饭, 地点诺布,帕洛阿尔托。 这顿饭的主题很简单: “求你收我们的钱。” “求你多收一点。” “你收得太少了,我们不放心。” 为什么? 因为谁先拿到最强GPU, 谁就能训练出全球最先进的神经网络。 因为AI竞赛,不是平均分蛋糕,是赢者通吃。 黄仁勋的股价你看到了。 马斯克亲自出马,你也懂了。 这是硅谷新剧本: 抢不到NVIDIA芯片,连未来都不用谈。 抢到了,恭喜你,得到了一张ai入场券。
#黄仁勋
#甲骨文
#马斯克
#GPU
#AI竞赛
分享
评论 0
0
Compute King
3周前
英伟达发布Rubin CPX GPU,专为长上下文推理打造 昨天白天我们还在聊128GB GDDR7的5090,还在质疑是不是真的,晚上就来了真正128GB GDDR7的Rubin CPX。这也侧面呼应了前两天业内反馈三星收单收到手软,大幅度提升GDDR7产能的事实。 对,英伟达昨天深夜发布全新GPU:NVIDIA Rubin CPX,这是一款专门面向长上下文AI推理的新型处理器,旨在支持百万级Token的软件开发、生成式视频以及深度研究等复杂任务。 Rubin CPX将与NVIDIA Vera CPU及下一代Rubin GPU协同,组成全新的NVIDIA Vera Rubin NVL144 CPX集成平台。该平台在单机柜内可提供高达8 exaflops的AI算力,性能较现有GB300 NVL72系统提升7.5倍,并配备100TB高速内存与每秒1.7PB的内存带宽,为AI推理树立全新性能标准。 英伟达将AI推理划分为上下文阶段(Context Phase)与生成阶段(Generation Phase):前者计算密集,需要高吞吐率处理输入;后者则对内存带宽依赖更强,逐个生成token。为此,英伟达推出“分解式推理”架构,由不同硬件分别优化两大环节。 CEO 黄仁勋表示:“Vera Rubin平台标志着AI计算的又一次重大飞跃。正如RTX改变了图形与物理AI,Rubin CPX是首款专为海量上下文AI设计的CUDA GPU,使模型能够一次性推理数百万token的知识。” Rubin CPX性能亮点 Rubin CPX专为加速“上下文阶段”设计,采用单片式芯片架构,具备: 🔹 30 petaflops NVFP4精度算力 🔹 128GB GDDR7内存 🔹 注意力计算速度提升至GB300 NVL72的三倍 🔹 集成视频编解码器与长上下文推理功能 据称,这一设计大幅提升视频搜索与生成式视频的效率。 GB300 NVL72刷新MLPerf纪录 除了发布新架构,英伟达还公布了MLPerf Inference v5.1基准测试结果。基于Blackwell Ultra架构的GB300 NVL72系统,在Llama 3.1 405B,Whisper等任务中刷新纪录。在6710亿参数的DeepSeek-R1混合专家模型测试中,其单GPU性能较上一代Hopper提升约5倍。 这一进步得益于英伟达全栈优化,包括NVFP4低精度加速,TensorRT-LLM库的模型与KV缓存量化,以及针对复杂模型研发的新型并行技术。
英伟达市值破四万亿,AI芯片霸主地位稳固?· 80 条信息
#英伟达
#Rubin CPX
#AI推理
#GPU
#128GB GDDR7
分享
评论 0
0
Leo Xiang
1个月前
求推荐个能在linux 环境下科学上网的工具? 场景是需要在云端使用GPU + Claude code来进行远程开发。 现在很多科学上网工具对linux 都支持不太好。
AI编程工具激战:Claude Code、Gemini Cli崛起· 906 条信息
#Linux
#科学上网
#Claude Code
#远程开发
#GPU
分享
评论 0
0
Inty News
1个月前
你以前挖空,现在根本赚不上钱了? 或有很多GPU显卡,不知道干嘛? 或你想搞个家里的GPU农场? 我推荐你上 Vast 租出去,赚钱!我经常在那里使用他们的GPU呢! 下面是每个显卡每小时能赚的中位数。 详情点击链接 👉
币圈:山寨币盼涨,机构牛再现?· 4446 条信息
#GPU
#Vast.ai
#出租
#赚钱
#显卡
分享
评论 0
0
蓝点网
2个月前
英伟达将为 #GPU for #Windows10 提供 1 年安全更新到 2026 年 10 月,如果用户不升级 Windows 11 系统将无法更新。这个政策涵盖英伟达所有显卡,继续使用 Windows 10 则会缺乏 GPU 功能更新导致无法适配新游戏和优化性能。查看全文:
#英伟达
#GPU
#Windows 10
#安全更新
#显卡
分享
评论 0
0
fin
2个月前
AI时代和互联网时代的运行逻辑和模式有什么不一样? 最近一直在思考这个问题,也在尝试从时间线拉长的角度去看一看 两年前的GTX大会,老黄po出来的这张图宣布了时代大幕的拉开,PC时代->互联网时代->AI时代,每一个时代前期的硬件大基建时代开始了,可能又是一次cisco时代涨潮退潮的故事重现 cisco时代基建一旦搭好,后续基建需求就减小太多了,相当于管道搭好了,互联网公司在管道上面搭各种各样的应用(即便是infra要扩容),大都是一次性的建设费用,之后的折旧周期也很长,cisco于是在短暂的互联网时代前期爆发之后迅速成了弃儿,如果2000年买入那么直到2021年才回本,大幅跑输SP500 移动互联网也是一样,手机SoC的基建一旦搭起来,每年能卖出去的手机量基本上是固定的,所以高通成了过去十多年来半导体领域最具有illusion的差劲投资,移动互联网经济的繁荣没有给高通带来多少增量,底层基建只有基本的手机例行换代升级更新 但两年后现在回过头来看,AI时代也许无法直接套用之前的经验。逻辑是不一样的,training训练基建并不是一次性的,日常使用的费用远远超过互联网时代,GPU的超负荷使用导致其寿命两三年就要换新,而且价格及其昂贵。 为什么Meta用人均上亿美元签字费的代价挖来那么多顶尖AI人才来做基础模型?是不是冤大头? 从Meta的infra高成本来看是有道理的,因为Meta在GPU基建上的投入一年70B而且还一直在增长,甚至要亲自下场去做GW级别的数据中心,那么投入3~5B去招募一群世界上最懂的人去用好一年70B的顶级奢侈品GPU data center,就显得是非常必要的了,三五十亿美元招募费相比而言甚至是非常划算的事情 在Google/OpenAI,Compute-per-Researcher已经是重要管理KPI,Meta花了几亿买人,说对应的算力必须要匹配齐全,这个说法反过来就能理解Meta高价挖人的初衷:每年花近千亿买GPU,对应的技术人才必须要匹配到位 在大厂做fundation Model training的这部分人(特别是pretraining)和SDE不一样,甚至和十年前才产生的新工种MLE也不一样,已经是一个完完全全由这个时代产生的新工种了:算力花销收益率管理人,没有千卡集群的训练经验,都达不到能进行业的门槛 人类历史上第一次产生了一种,由少数几十上百个人去操作每年花销相当于一个国家GDP(100B级别=克罗地亚/哥斯达黎加)的机器大军的新工种 在互联网时代,Google,Amazon,Facebook都是不需要在基建上承担太多压力的,只需要等互联网基建慢慢成熟,他们就能借助这个网络建立一个信息流通的商业模式,每次请求的网络和算力成本,也是边际成本极低,造成了scaling的效果极好,分发边际成本几乎为零,快速扩张的收益惊人,扩张越快收益平方上升 ------ 这个特质也造成了一个现象:互联网企业的最大OPEX成本都是SDE人工成本,这就是典型的第三产业服务产业的特征,这也是SDE过去十五年黄金时代可以随着业务不停扩张而薪资水涨船高的重要原因 互联网时代的稀缺资源是软件工程师的工作时间,财报的重头是OPEX工资,护城河是网络规模效应和无限复制接近零的分发成本,Google/FB也自建数据中心,但CAPEX在10%左右 而LLM时代,起码是这几年,互联网公司主导稀缺资源已经是GPU+供电容量(GW级别),财报的重头是CAPEX(MSFT CAPEX 比例33%,Meta 甚至已经快到40%了),GPU已经毫无疑问是重资产,重消耗 互联网公司历史上第一次像半导体厂foundry那样背上高折旧成本的资产负债表,商业模型恨不得要慢慢从“流量 × 转化率”部分转向“每 token 毛利”了 第三产业和第二产业的重要差别就在于需要管理重资产和持续的运营成本,互联网厂商性质会从第三产业变成“第二产业化”,打工人作为asset的价值就不会那么的宝贵,SDE溢价无上限的黄金年代可能在AI时代可能很难持续了,要尝一尝半导体行业打工人的常规待遇,比如谈薪资要的太高直接把offer谈没了 互联网公司持续把资源从人工转到GPU购买上,挤压人员的成本,削减福利+不停裁员换血,我觉得每一个互联网公司的SDE打工人,都应该买入Nvidia作为风险对冲(弥补自己被GPU挤出价值链的风险) -------------- 在AI时代,这个互联网时代边际成本几乎为零利于scalable的特性遭遇了根本性的重大挑战:且不说训练成本从此不是一次性开销而是年年增长,就客户的AI推理请求而言,由于inference scaling成为共识,加上模型本身需要更大规模来达到更好效果,推理的成本可能不会随着硬件算力价格的通缩而降低 就像当年的手机行业芯片每年的算力都在提升,照理来说续航每年都能增长一大截,但是最佳商业逻辑是在功耗满足人们能忍受的限度内(电池能用一天),尽可能提升体验,而不是维持体验不变降低功耗。不然的话,手机早就能达到待机几个月的水平了 AI时代的推理也是一样,o1的成本降低了,大家就会用体验更好的o3,gpt4o的成本两年降低了一百倍,大家就会去用gpt4.5,成本比两年前的GPT4还要高,gpt4.5一天限额只有几条。agent半年时间跑相同任务便宜了十倍,但一个新的效果更好的agent又把价格拉了回去 这个AI推理成本可能就和当年的手机芯片功耗一样,在人们能忍受的成本限度内,尽可能的提升体验。所以AI推理成本不会降低,也就是互联网时代讲究的分发边际成本会变高很多 更不说因为AI使用量的提高带来的token消耗量的巨额增长。 这也导致互联网公司在这一块的投入,也是在财报能忍受的限度内,尽可能的提高自己的算力,这可能也是为什么Google最近又提高了AI的capex到85B,其他几个互联网巨头提高capex也是理所当然可以预见的事情。这也许会带来一个前所未有的现象:在scaling law失效之前,算力开销成本增长不会低于互联网业绩增长 ------- 从这个宏观背景的变化出发,也就是AI和互联网在底层算力特性上的不同出发,那么也许可以尝试推演一下,这会带来什么策略上和商业模式上的变化 (待续)
#AI时代
#互联网时代
#算力成本
#GPU
#资本支出
分享
评论 0
0
Inty News
2个月前
中国的AI模型可以用吗? 1,如果服务器在中国的,不能用! 2,如果开源的,在美国公司服务器上,可以用! 3,如果你有足够的GPU,开源的可以部署在自己的设备上,可以用。
#AI模型
#中国
#服务器
#开源
#GPU
分享
评论 0
0
网易新闻-新京报
2个月前
美国解禁H20芯片AB面,黄仁勋一年三次来华的“芯”事
美国解禁H20芯片AB面,黄仁勋一年三次来华的“芯”事,美国,黄仁勋,英伟达,gpu,amd,国产芯片,h20芯片,nvidia
美国批准向中国销售H20芯片,黄仁勋称是重大利好· 9 条信息
#美国
#黄仁勋
#英伟达
#GPU
#AMD
#国产芯片
#H20芯片
#NVIDIA
分享
评论 0
0
kevinzhow
2个月前
之前一直想测试 Intel 的 Pytorch XPU 方案,但苦于手头没有支持的机器,今天发现 Intel 的 Tiber Cloud 可以试用 GPU,搞了个测了下,发现兼容性似乎还不错,于是下单了个 Core Ultra 225H 的机器,等到了好好试一下
#Intel
#Pytorch XPU
#Tiber Cloud
#Core Ultra 225H
#GPU
分享
评论 0
0
ariel reyez romero
3个月前
Oracle上调年度财务预期,归因于云服务需求的强劲增长,导致股价连涨两天,显示AI基础设施需求持续上升。 Nvidia在德国部署10,000个GPU,启动欧洲首个工业AI云,支持制造业AI应用。 AI基础设施公司Nebius Group(原NBIS)在英国部署数千块的Nvidia B300 GPU集群,支持AI计算需求。
英伟达市值破四万亿,AI芯片霸主地位稳固?· 80 条信息
#Oracle
#云服务
#NVIDIA
#GPU
#AI基础设施
分享
评论 0
0
勃勃OC
3个月前
看了一个视频,讲解为什么高斯模糊(blur)在设计中有这么高的地位,我才发现 John Ivy 的地位确实不是吹出来的。 07年之后,随着计算机算力提升(主要是GPU),各大操作系统都不约而同的加入了即时高斯模糊算法,改进他们的UI 模糊可以让人获得“焦点”感,引导人视觉上的关注,相当于负空间,音乐中的静默 微软和苹果的做法又那么一些不同。苹果将高斯模糊直接做成了雾化玻璃效果,成为iOS所有前置菜单的核心 而微软的Windows Phone UI则完全摒弃了模糊,成为一团浆糊。最后在Windows 10里才又吧背景模糊加了回来 模糊,真的很重要 你学会了吗?
#高斯模糊
#设计
#UI
#GPU
#John Ivy
#苹果
#微软
#操作系统
分享
评论 0
0
ilovelife
3个月前
#每日推荐 一款全新的工作流 IDE 解决的痛点 - 本地环境配置繁琐,跨平台开发痛苦 - 团队协作时环境不一致,调试很痛苦 - 想要一个统一的工作区管理各种项目 - 在 Windows 上调用 GPU - 只想写代码,不想折腾环境和 UI - 不想关注底层技术细节,只想专注于工作流编排 官网:
#工作流
#IDE
#本地环境配置
#跨平台开发
#团队协作
#Windows
#GPU
#编码效率
#软件开发
分享
评论 0
0
蓝点网
4个月前
内部工程师提前泄露英伟达正在研发的 #APU 处理器,可能使用联发科的 #Arm 处理器和英伟达自己的 GPU,主要适用于笔记本电脑。 此前已经有消息表明英伟达与联发科合作开发 Arm 芯片,也就是参与与高通在 Arm 笔记本电脑市场的竞争,当然也会和 AMD APU 竞争。 查看全文:
#APU
#ARM
#GPU
#笔记本电脑
#英伟达
#联发科
#高通
#AMD
#芯片
分享
评论 0
0
勃勃OC
4个月前
阿联酋“星门”项目的第一阶段预计将于2026年投入运行,初始装机容量为200兆瓦,配备最多达10万块英伟达(Nvidia)的GB300图形处理单元(GPU)。
#阿联酋星门项目
#英伟达
#GPU
#科技
#能源
分享
评论 0
0
头条热点
4个月前
NVIDIA 表示不会将任何 GPU 设计发送到中国进行修改以符合美国的出口管制
#NVIDIA
#出口管制
#GPU
#中美关系
分享
评论 0
0
老猿说OldApe
4个月前
川普为了扩大美国招商引资的效果,总是故意放大数据……除了孙正义很喜欢,英伟达的黄仁勋也激情演讲…… Blackwell 系统:“一个GPU单元。它重70磅,有6万个零件,功率1万瓦。” 川普:“黄仁勋,他将在未来四年投入高达5000亿美元,用于完全在美国制造有史以来最强大的人工智能芯片。” 黄:非常荣幸来到这里。英伟达在60年后首次重新发明了计算。事实上,IBM的阿温德非常清楚,自60年代以来,计算机基本上没有改变。 IBM System 360非常完美地描述了我们今天使用的计算机。中央处理器、操作系统、硬件和软件的分离、输入输出子系统、多任务处理。 我们今天用来描述计算机的所有词语,实际上都是在1964年发明的,也就是我出生后的第二年。 黄仁勋:这么久之后,我们再次重新发明了计算机。这就是一个处理器的样子。就在右边那个。人们说它是一个GPU。那是一个GPU单元。它重70磅,有6万个零件,功率1万瓦。 ……
#川普
#招商引资
#美国
#孙正义
#英伟达
#黄仁勋
#人工智能
#芯片制造
#GPU
#Blackwell系统
#IBM
#科技创新
分享
评论 0
0
Hao Huang
6个月前
nvda这公司长期是没有问题的,只要黄仁勋不退休或者嗝屁。你可以今年看空但是不能一直看空。 新技术的发展还是要符合Gartner曲线。就算nvda靠过量的算力供给自己戳破了自己的泡沫,恐怖的下两代gpu算力提升加上软件上的优化最后把算力成本降低一百倍将开启真正的AI爆发的大航海时代
#NVDA
#黄仁勋
#Gartner曲线
#GPU
#AI
#技术发展
分享
评论 0
0
華爾街分析猿
6个月前
輝達 GTC 2025 沒說破的真主角:HBM 記憶體 AI 零組件變化快,許多都有被新技術取代的風險, 但 HBM 是少數具「高度確定性」的核心元件。 未來三代 HBM 頻寬升級幅度驚人, 頻寬越寬 → 資料讀取越快 → GPU效能越強。 HBM 是 GPU 的 Scaling Law。
#輝達
#GTC2025
#HBM記憶體
#AI
#GPU
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞