2025-06-13 12:26:37
在WWDC25现场,挖到的秘密内幕 睡了一觉,怕忘,记录一下 1、这位朋友是苹果内部的程序员,他去年 wwdc 跟我透露「很多AI功能其实没做完,根本无法按时上线」以及「苹果内部写代码也在偷偷用ChatGPT」,所以应该没有公关意识和故意掩饰。 2、Siri 没做完,是因为过去一年,软件团队和 AI 团队在开发理念上产生了很大争执,最后推倒重来,估计年底或明年才能有动作,先别指望了。 3、Liqud Glass 效果实现用的就是 shader,不是什么光追。 4、液体效果最开始非常卡,连30帧都不到,但领导要求必须要满足120帧才能上线,所以算法一版一版的修改,终于上线时实现了。 5、这个效果每一毫瓦时的功耗是他们工作时最关注的 top1,现在还是有点费功耗,但算法团队还在优化,所以现在回答不了对续航的具体影响,每更新一版就会好一些。 6、这些工作他认为没有芯片协同能力的安卓厂商是做不到的。 7、控制中心太丑就是因为没做完,跟设计图都不一样,他们人力实在不够,都去关注功耗了。 8、因为去年牛吹大了,这次内部强力要求,一切不能在 beta1 上线的功能,发布会一概不说,媒体问就忍着。 9、苹果现在内部集成AI的代码工具非常好用,尤其是在检索苹果内部代码库方面,他们不需要再借助外面的AI了,Assist也进垃圾堆了。 10、奥对了,这点很重要:苹果端侧的模型,虽然能力比不上云端大模型,但是已经首个做到输出参数格式的稳定可控,这就意味着第三方开发者可以放心实装了,这点对开发者的信心很重要。 11、快捷指令支持 AI 不光在 MacOS 上,在其它OS上也是支持的,这一点发布会疏漏忘讲了,内部员工不开心 😂 12、我还问了他很多问题,有些也是他的主观预测,就先不写了。 13、他本人状态已经从去年的「这次完蛋了」,到今年的「嗯,你可以期待」 先记到这儿,想起什么再加 补1、想起聊天时的一个玩笑,苹果没有做AI大模型,而是坚持做端侧小模型的原因——用户隐私……是其中一个,但还有一个是苹果不想承担调用费用,哈哈哈 via Allen 📮投稿 ☘️频道
2025-06-13 12:18:00
2025-06-13 09:47:55
2025-06-13 09:25:14