3000刀都出不起,只能说中国人真的是太穷了,和我第一年来美国读书一样 当时我看到美国实体店里卖的家具1000刀,床垫2000刀起步,我恨不得直接睡在地上 可实际上,一张能睡至少五年的床卖2000刀,美国最低工资都得6万美金,也就是一年工资的不到3% 中国人什么都图便宜,不愿意为产品的质量支付任何溢价,以至于对现代工业品的认知都产生了扭曲,比如一碗面最多卖10人民币,但是用地沟油、没有麦麸的面粉而且没肉或僵尸肉,烘干机就是烘不干衣服,“烤箱”外壳是塑料做的,不锈钢能给你生锈,水果布丁里面全都是色素香精 这正常吗? 3000块钱都付不起的人,我很好奇他的保险是怎么买的。 据我所知,美国汽车现在最差的保险6个月也得600了吧?一家三口,家里的电费天然气费一个月至少也得300吧,一年就是3600了——租房子住也得自己出哦。 如果有房子的话,你甚至还有房屋保险,房产税,一年至少9000。 用中国人物质匮乏和对贫穷的恐惧,去理解美国人的消费观,真的太可笑了。 更别说虽然中国人在日常生活中挑三拣四到处蹭便宜,但买套房子一两千万背上一家四口70年贷款的时候,又不嫌贵了? 难怪咱们小粉红会觉得美国是“订阅制”社会;哪像怎么中国,一日三餐花费不到20人民币,水电气网费蹭父母的可以当做不存在,汽车也不用开骑自行车上班,美滋滋。 这又如何呢?美国人的钱如流水一般花销,但赚的也快啊。 😅😅😅
转自GavinSBaker: 我认为 Nvidia 收购 Groq 主要出于两个原因。 1)推理正在拆分为 prefill 和 decode 两个阶段。 在 decode 阶段,对于性能主要由内存带宽决定的工作负载,SRAM 架构具有独特优势。 Rubin CPX、Rubin 以及基于 Groq 衍生出来的假想版本 “Rubin SRAM”,将使 Nvidia 能够通过混搭不同芯片,为每一种工作负载在性能与成本之间找到最优平衡。 Rubin CPX:由于采用容量极高但带宽相对较低的 GDDR DRAM,非常适合在 prefill 阶段处理超大上下文窗口。 Rubin(标准版):是训练以及高密度、批量推理的主力产品,其 HBM DRAM 在内存带宽与容量之间取得了良好平衡。 基于 Groq 的 “Rubin SRAM”:由于 SRAM 具备极高的内存带宽(但容量较低),非常适合**超低延迟的 agentic reasoning(智能体推理)**类推理工作负载。在这种情况下,prefill 阶段很可能仍由 CPX 或普通 Rubin 来完成。 2)长期以来已经很清楚:SRAM 架构在 token/s(每秒 token 数)指标上,可以显著高于 GPU、TPU 或任何目前见过的 ASIC。 其代价是:单个用户的极低延迟,但单位成本的吞吐量较低。 18 个月前尚不明确的是,终端用户是否愿意为这种速度付费(由于 batch 很小,SRAM 的单 token 成本更高)。而现在,从 Cerebras 和 Groq 最近的结果来看,已经非常明确:用户愿意为速度买单。 这进一步增强了我的判断:除了 TPU、AI5 和 Trainium 之外,其他 ASIC 最终都会被取消。 在 三种 Rubin 变体 以及多种配套网络芯片面前,竞争将异常艰难。 当然,听起来 OpenAI 的 ASIC 可能会出乎意料地优秀(明显好于 Meta 和 Microsoft 的 ASIC)。 接下来要看看 AMD 会怎么做。 Intel 已经在朝这个方向推进(他们有一个 prefill 优化的 SKU,并且收购了 SambaNova——这是 SRAM 阵营里最弱的竞争者)。 有点讽刺的是,Meta 买了 Rivos。