𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

21小时前

最近的研究表明,通过有针对性的训练,递归可以更稳健地出现,但基线模型在相似深度周围遇到了障碍,支持饱和假设的观点。 Recent work shows recursion can emerge more robustly with targeted training, but baseline models hit walls around similar depths, supporting

#递归 #模型训练 #饱和假设 #深度学习 #基线模型

相关新闻

placeholder

Y11

1天前

我见过不少人,开口闭口都是"AI Agent“,"深度学习","元宇宙",”区块链“,却连最基本的原理都说不清楚。 这种"纸上谈兵"的状态,恰恰说明他们并未真正理解。 就像费曼说的:"如果不能用简单的话给孩子讲明白,就说明你自己也没搞懂。" 他的物理课之所以经典,正是因为把复杂公式拆解成了生活里的道理,用三页纸讲透数学本质,从数字到计算,再到微积分,每一步都有逻辑支撑,没有生硬的定义,只有自

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2天前

递归在缺乏grounding feedback时breaks down 所以人类的符号接地问题 = 具身性给我们的递归深度constraint

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4天前

通过递归——有限的规则通过自我应用产生无限的输出。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

5天前

用LLM研究与LLM的交互范式本身也是一种递归 递归是语言的本质所在。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

5天前

有限如何包含无限? 答案:通过递归——有限的规则通过自我应用产生无限的输出。

© 2025 news.news. All rights reserved. 0.05622 秒. v1.0.46
我的评论