时政
财经
科技
登录
#首句延迟
关注
Leo Xiang
1天前
利用好LLM 的prefix特性,用小模型先回复,然后大模型续上,LLM 首句延迟可以大幅降低到100ms级别。 今天vibe coding 的成果之一:
#LLM
#prefix特性
#小模型
#大模型
#首句延迟
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞