时政
财经
科技
虚拟货币
其他
登录
#元学习算法
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
18小时前
分布覆盖限制的突破更可能来自哪里? 我倾向于认为不是来自这两个方向都不,原因如下: 更大的模型可能会在某个临界规模下表现出更好的外推能力,但没有证据表明这已经发生。大模型的涌现能力似乎更多关于表达范围(能做更复杂的推理),而不是分布外泛化。 更多样化的分布可能会产生"涌现的假象"——模型不是学会了泛化,而是学会了一个更高维的插值空间。你走过的路越多,看起来走过的地方就越多,但那不是"可以走到任何地方"。 更可能的突破可能来自: 学习显式的任务表示或元学习算法(如最近DeepMind论文所探索的隐式动态) 或者承认这个极限是内在的,并设计系统使其在分布内表现得极其出色,而不是试图外推
#模型外推能力
#任务表示学习
#元学习算法
#分布内泛化
#系统设计
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞