#WWDC25

Song
2个月前
在WWDC25现场,挖到的秘密内幕 睡了一觉,怕忘,记录一下 1、这位朋友是苹果内部的程序员,他去年 wwdc 跟我透露「很多AI功能其实没做完,根本无法按时上线」以及「苹果内部写代码也在偷偷用ChatGPT」,所以应该没有公关意识和故意掩饰。 2、Siri 没做完,是因为过去一年,软件团队和 AI 团队在开发理念上产生了很大争执,最后推倒重来,估计年底或明年才能有动作,先别指望了。 3、Liqud Glass 效果实现用的就是 shader,不是什么光追。 4、液体效果最开始非常卡,连30帧都不到,但领导要求必须要满足120帧才能上线,所以算法一版一版的修改,终于上线时实现了。 5、这个效果每一毫瓦时的功耗是他们工作时最关注的 top1,现在还是有点费功耗,但算法团队还在优化,所以现在回答不了对续航的具体影响,每更新一版就会好一些。 6、这些工作他认为没有芯片协同能力的安卓厂商是做不到的。 7、控制中心太丑就是因为没做完,跟设计图都不一样,他们人力实在不够,都去关注功耗了。 8、因为去年牛吹大了,这次内部强力要求,一切不能在 beta1 上线的功能,发布会一概不说,媒体问就忍着。 9、苹果现在内部集成AI的代码工具非常好用,尤其是在检索苹果内部代码库方面,他们不需要再借助外面的AI了,Assist也进垃圾堆了。 10、奥对了,这点很重要:苹果端侧的模型,虽然能力比不上云端大模型,但是已经首个做到输出参数格式的稳定可控,这就意味着第三方开发者可以放心实装了,这点对开发者的信心很重要。 11、快捷指令支持 AI 不光在 MacOS 上,在其它OS上也是支持的,这一点发布会疏漏忘讲了,内部员工不开心 😂 12、我还问了他很多问题,有些也是他的主观预测,就先不写了。 13、他本人状态已经从去年的「这次完蛋了」,到今年的「嗯,你可以期待」 先记到这儿,想起什么再加 补1、想起聊天时的一个玩笑,苹果没有做AI大模型,而是坚持做端侧小模型的原因——用户隐私……是其中一个,但还有一个是苹果不想承担调用费用,哈哈哈 via Allen 📮投稿 ☘️频道
林亦LYi
2个月前
这两天网上对苹果AI的吐槽比较多,比如有个朗朗上口的梗是“别人冲AI,苹果搞UI”。但和主流观点不太一样,我认为WWDC25苹果在AI上做了件大好事:给AI的实际应用落地全面科普筑基。 苹果在AI基础模型的实力上远未达到业界顶尖水平,这是客观事实。但这次苹果在发布Foundation Models Framework的同时,花了大量功夫做开发教学。一开始我以为这个“基础模型框架”就是把苹果那个30亿参数的本地模型开放出来给开发者们用,可看完官方的三个公开课之后,我发现这套教程、文档、用例,才是苹果真正的诚意之作! 苹果做的事就是,现在模型能干什么、该怎么用、可能出现哪些问题,都给讲清楚、处理好了。举个细节点的例子,我一直知道大模型有system prompt和user prompt,但一直没深究过,看了苹果的教程,才知道原来system prompt更适合写角色设定之类的提示词,因为大模型都会被训练得更遵循system prompt。再比如,AI输出慢大家都知道,但只有苹果专门出来讲了下怎么用动画、设计来消解这些迟滞感。还有像对话太长了怎么办,“工具调用”到底是怎么个流程,这样的例子还有很多。无论是不是苹果系开发者,我都强烈建议去白嫖一下苹果构建的这套知识体系,对落地自己的AI应用肯定大有助益。 指路,三个公开课视频: 1. WWDC25: Meet the Foundation Models framework (YouTube) 2. WWDC25: Deep dive into the Foundation Models framework (YouTube) 3. Code-along: Bring on-device AI to your app using the Foundation Models framework ()