llm幻觉的分类、根本原因与解决方案 |openai 最新blog 《Why language models hallucinate》 === 信心满满张嘴就来、一本正经胡说八道,人类如此嘲讽llm的“幻觉” (Hallucination) 。 (其实,人类自己在这方面也相当不差🤣) 作为用户,以及有大量学习经验的人类学习者,我们可以根据实际经验,把 llm 幻觉大致分为两种:一种是预训练阶段,llm学习并记住了错误的知识,然后把错误信息当作正确知识,用于回答中(人也一样);第二种是guessing,而不是直接说“我不知道”,或者给出多种可能性的不确定回答(人也一样)。 openai 分享了对llm幻觉的研究。llm 幻觉的根本原因,不只是模型本身,而在两个地方: 一个是llm的预训练阶段,数据局限性导致的幻觉;llm通过学习海量文本来“预测下一个词”,对于有规律的模式(语法、编程、通用知识),llm可以学得很好;但是,对于低频的事实(例如,路人甲xxx的宠物狗的生日),这些信息在训练数据中无规律可循,导致了llm的第一种幻觉; 另一个是以准确率得分为主的评估机制(accuracy-based evals),错误地奖励 llm的“战略性猜测”/瞎猜行为,错误地惩罚llm 放弃回答/“我不知道”的行为,这导致了第二种幻觉; gpt-5 的一大提升,就是在消除llm幻觉上。gpt-5,学会了“谦卑”,某种意义上体现了某种程度的“元认知”:减少了“战略性猜测”行为,而选择“放弃”,直接说自己不知道。 这篇文章很有趣,值得读一读~~
openai 会在几个月内推出 chatgpt “家长控制”功能。 家长账户可以关联未成年账户,管理适合年龄的内容、禁用特定功能。 chatgpt 在对话中检测到青少年可能需要帮助(抑郁、自杀等问题)时,会通知父母。 --- 对于成年人来说,chatgpt 是可以提供一定的心理支持的。但是,对于未成年人,因为心智不成熟,在ai对话后未成年人选择自杀的事情也逐渐出现。 最好的“科技向善”,就是做好“家长控制”功能,让科技提供的支持力量,和家庭、父母、朋友提供的情感支持力量形成合力。 等chatgpt的家长控制功能出来后,我考虑给小学生单独一个美区id,单独开一个chatgpt账户来测试测试(目前和她妈妈共用一个plus账户)🤣 --- 一个小观察:中国互联网公司,没有一家真的原意去做一个“家长控制”功能。 包括微信、微信读书这种级别的产品。我给小学生试过,简直就是恶心人,根本就不能用。完全是“糊弄学”,为了满足上面的要求。 其实,他们只需要用一周时间,copy一个苹果或google的parental control就可以。但他们偏偏不,就是要做一个恶心你的版本。 考虑到他们在其他方面的聪明程度,我只能说这不可能是无意的行为。 这些科技巨头在做“家长控制”时的心理活动 be like: > 你不是要未成年模式吗?要家长控制功能吗?我给你,我给你一坨屎。用去吧你! 这就是中国科技公司对儿童的态度。真他妈的恶心。