#自然语言

最近范老师对于LLM在自然语言能力与形式语言能力的现象观察着迷,这一能力似乎不能在一个Transformer模型内并存,这如我们人类相似,一个伟大的程序员也不能写出优美的诗句:😍 一是像Anthropic在code方向突飞猛进,在Claude3.7以后更是激进,我们看到的是编程coding能力更强了,尤其是结合claude code cli工具,但是claude 4在自然语言写作方面明显退化了,我个人的感受是现在都不怎么用claude来写作了。同时Anthropic在LLM可解释性方向组建了一个AI精神病研究小组。 二是Google DeepMind在用AI参加IMO数学竞赛的方式上的变化:imo24上还用纯强化学习的alpha geometry 和lean这种形式语言工具来解题,到了imo25则直接用gemini pro deepthink版本直接获得了金牌。似乎是用内化了形式语言能力的LLM自然语言能力。 三则是OpenAI,The Infomation在GPT-5发布之前爆料说,o3在形式语言推理能力上非常突出,但用于chatbot一般对话中似乎很明显的感受到变笨降智了。 前两天发布的GPT-5中增加了个router层,似乎想解决LLM在交互中的自然语言能力与形式语言能力的无感切换问题,不过通过发布后用户反馈,似乎切换并不顺利,OpenAI正在修复router的问题以及重新提供gpt-4o等旧版本模型选项。 以上这一系列现象观察,背后反映了怎样的问题?与前面我们讨论的人类对于自然语言形式语言的能力运用有何本质联系?