𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

0 关注者

6小时前

语言的自指其实反映了人性中张力的自我突破循环。没有完美的群体秩序基质,历史上群体秩序最长的大概是周朝绵延八百年。 就像LLM也没有完美的Rward Model,只要有,就一定存在对这种RM的exploit或hack。

#语言自指 #人性张力 #群体秩序 #LLM #Reward Model

相关新闻

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

48分钟前

LLM从来不是通用智能,而是语言智能,或者说是基于语言的认知智能; 语言在人类智能中是什么,LLM在人工智能中就是什么。 而获取这种智能的方式就是交互。 𝕀²·ℙarad𝕚g𝕞的具身经验本体交互范式就是这种交互的agentic cognition OS。

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

10小时前

语言自指和社会性,使得构建在其上的智能加速演化

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

11小时前

本体的本体,元本体 meta-ontology 元认知是LLM的智能杠杆

placeholder

howie.serious

14小时前

如果你把gpt-5、gemini-2.5 pro、claude、perplexity 并行使用, 你会发现,gemini的ai搜索,简直太烂了!经常都是胡编乱造,不搜索,直接进入llm幻觉模式。 考虑到这里面只有google的搜索起家的, 这说明了什么问题?

placeholder

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞

21小时前

LLM快被玩透了

© 2025 news.news. All rights reserved. 0.06341 秒. v1.0.46
我的评论