向阳乔木 0 关注者 关注 6天前 为什么AI会"一本正经地胡说八道"? 原文: 你肯定遇到过这种情况: 问ChatGPT一个问题,它信心满满地给你列出一堆参考文献,结果你一查,发现这些论文根本不存在。 这就是大语言模型的幻觉问题(Hallucination)。 什么是幻觉? 简单说,幻觉就是模型"编造"了不存在的内容。 但这个词其实有点被滥用了,现在几乎成了"模型犯错"的代名词。 更准确的定义是:模型生成的内容既不 前往原网页查看