𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

4个月前

弄来弄去还是给ICL提供上下文: 给符号智能以具身经验本体

#ICL #符号智能 #具身经验 #本体 #上下文

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

1周前

智能系统面对开发环境交互的学习,从来都是error minimization的前提下,自己去exploration。亦步亦趋遵循指令只算是会说话的工具。 与llm交互类似,面对这样一个在语义世界里越来越强大的符号智能,我们能做的除了注入我们的taste,就是给它们导航和remapping的信号。

placeholder

indigo

2周前

Claude 最近上新频繁!今天 Max、Team & Enterprise 的 Claude Code 默认支持了 1M 的上下文。如图 Opus 4.6 和 Sonnet 4.6 在整个 1M 窗口内的准确率明显高于 GPT 5.4 和 Gemini 3.1 Pro。一个模型上下文的准确性和检索力,决定了其完成复杂任务的质量,Context 就是模型在应用层面的“持续学习”✨

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4个月前

math确实是最适合符号智能的了,也不用考虑什么符号接地之类的东西 看看deepseek的超长上下文版本什么时候出来!

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4个月前

当具身经验理解不了符号的时候

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

4个月前

austerity 紧缩性翻译得太硬了,应该是maximize future compression progress的理论普遍性与简约性。 这篇论文的理论和最近看到的YiMa教授的purtuing the nature of intelligence类似,回头一起研究一下。 最近对符号智能的压缩性有了更深刻的理解。

© 2025 news.news. All rights reserved. 0.03809 秒. v1.0.46
我的评论