sitin
1个月前
HeyGen 这波视频翻译升级,我真觉得有点东西。之前 AI 翻译视频,更多还是「能看懂」的水平,这次是往「真假难辨」方向走了一步。 1.口型这块是真的更像真人了 不只是正脸那种「官方 demo 姿势」,连侧脸、嘴巴被挡一半、光线不太好的画面,翻译后的嘴型都还挺自然。以前很多工具一转语言就「嘴在念 A、声音在说 B」,现在这个违和感小很多。 2.翻译开始“看懂画面”了 以前更多是照着字幕硬翻,现在它会结合画面去理解语境——愤怒场景里的 “no”,和教学视频里的 “no”,语气完全不一样,这次它是真的会去调这个情绪。对做内容的人来说,很关键。 3.原视频烂一点也没那么怕了 随手手机拍、环境吵一点,按理说是翻译模型的灾难场景,但他们这次是把「输出音质」拉得很干净,感觉更像是帮你顺手做了个降噪 + 重新录了一遍的感觉。 4.多说话人 + 性别识别也在往「真实对话」靠 以前多人的场景最容易出戏:同一段对话里,不同人、不同性别用的是同一副声音。现在能区分说话人、自动配不同音色,多人对话看起来就没那么“翻译腔”了。 5.还有一个比较现实的点:入口已经铺好了 现在 iOS App 已经上线,YouTube 贴链接就能翻。API 和网页版也准备开放,对做产品、做自动化工作流的人来说,很容易塞进自己的一套系统里。 视频翻译这条赛道,感觉已经从“玩具阶段”,往“生产力工具”那一档迈进了一小步。
【说说Iren的GPU融资方式】微软与 IREN 近期签署了总额 97 亿美元、为期五年的算力合同。值得关注的关键点在于,IREN 并没有像 CoreWeave 或 Nebius 那样直接购入 GPU,而是采用 FMV Lease(公平市场价值租赁) 模式,通过戴尔金融租赁英伟达 GPU。 这种方式的核心逻辑,是以租代买,保持资产结构的轻量化。对于 IREN 而言,有以下优点: 第一,避免 GPU 折旧风险。当下 AI 芯片迭代推进极快,H100 规模部署仍在进行,H200、B200 接力而至,后面还有 GB200、Rubin。自购 GPU 在财务报表上不仅沉重,还可能面临未来性能被淘汰的残值风险,而租赁让企业把这部分风险转移出去。 第二,灵活跟随英伟达技术节奏。FMV lease 允许在 2–3 年周期内换用最新 GPU 型号,保持算力竞争力。对于处于扩张周期、需要与头部公有云同速迭代的算力玩家,这一点至关重要。 第三,轻资产运营、资本效率优先。GPU 不进入资产负债表,减少重资产压力,扩张速度更快、资金占用更低,对于竞争激烈、算力需求爆发式增长的阶段,是一种更灵活的资本结构。 当然,这种模式也有代价。租赁方式意味着单位算力成本高于自购。就像买车与租车的区别:租车可以随时换新、避免折旧,但长期成本更高。在长期满负载、高利用率场景下,自购的 TCO 优势更突出。 归纳来看,IREN 选择的,是一种速度优先、资产灵活性优先、先占市场后谈效率的打法。当前 AI 算力正处于高速扩张与硬件周期快速演进阶段,轻资产扩张能避免被“旧 GPU”拖住脚步,快速占领资源与客户预期。