𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

1个月前

austerity 紧缩性翻译得太硬了,应该是maximize future compression progress的理论普遍性与简约性。 这篇论文的理论和最近看到的YiMa教授的purtuing the nature of intelligence类似,回头一起研究一下。 最近对符号智能的压缩性有了更深刻的理解。

#紧缩性 #maximize future compression progress #YiMa教授 #符号智能 #压缩性

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1个月前

math确实是最适合符号智能的了,也不用考虑什么符号接地之类的东西 看看deepseek的超长上下文版本什么时候出来!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1个月前

符号智能需要压缩效率;具身智能则需要搜索效率。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1个月前

你不了解上下文工程,就不了解LLM交互;你不了解语言边界,就不了解LLM符号智能;你不了解生物智能,就不了解与LLM交互需要具身经验本体的投射与反投射闭环。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2个月前

弄来弄去还是给ICL提供上下文: 给符号智能以具身经验本体

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

2个月前

记得YiMa教授认为智能演化在神经网络出现复杂到一定程度的时候就会出现个体智能-ontogenetic,特定个体智能再演化到一定程度就会出现语言,形成更高层次的复杂性群体-社会智能。 这和细菌菌群类似。这里面似乎有一种必然。人类从具身性到符号化,AI又从符号化开始再往具身性发展。LLM是符号智能的bootstrap,只是个开始。

© 2025 news.news. All rights reserved. 0.02863 秒. v1.0.46
我的评论