AI幻觉是什么?为什么大模型会一本正经胡说八道?

先说个我遇到的真事:AI 给我编了篇假新闻

有次我让 ChatGPT 写一篇 ” 某科技公司发布新产品的新闻稿 ”,它写得有模有样,连发布会时间地点都有。

我去查证,发现全是编的。那个时间地点根本不存在,发布会更是子虚乌有。

这就是 AI 幻觉——一本正经地胡说八道。

AI 幻觉是什么?为什么大模型会一本正经胡说八道?

什么是 AI 幻觉?

AI 幻觉(Hallucination),指的是 AI 生成看起来很专业、很有逻辑,但实际是错误或虚构的内容。

典型表现:

• 编造不存在的事实

• 引用不存在的文献

• 给出错误的数字和日期

• 把两件无关的事扯到一起

最可怕的是,AI 说得特别自信,连表情符号都用上了,你根本看不出是假的。

为什么 AI 会产生幻觉?

原因一:它不是真正 ” 知道 ”,是 ” 预测 ”

大模型的本质是预测下一个字。它不是真的理解世界,而是根据训练数据,猜下一个字应该是什么。

有时候猜错了,但它自己不知道,继续往下编。

AI 幻觉是什么?为什么大模型会一本正经胡说八道?

原因二:训练数据本身有问题

AI 学的是互联网上的内容,互联网上有很多错误信息。AI 学到错误的东西,就会输出错误的内容。

原因三:不懂装懂

AI 被训练成要回答问题,而不是说 ” 我不知道 ”。遇到不熟悉的问题,它宁愿瞎编,也不会承认不知道。

怎么识别 AI 幻觉?

几个简单的判断方法:

检查事实

涉及具体数字、日期、人名的,去搜索引擎验证一下。

验证引用

AI 说 ” 根据某某研究 ”,你去找找这个研究存不存在。

逻辑自洽性

看看 AI 说的内容前后是否矛盾。有时候前面说 A,后面又说非 A,那肯定有问题。

怎么减少 AI 幻觉?

方法一:让 AI 承认不确定性

在 Prompt 里加一句:” 如果不确定,请直接告诉我不知道。”

方法二:要求提供来源

“ 请提供信息来源 ”——虽然 AI 可能会编来源,但至少多了一层检查。

方法三:多次确认

同一个问题问两遍,看看答案是否一致。不一致的话,大概率有问题。

常见问题

Q:所有 AI 都会产生幻觉吗?

A:是的,这是大模型的通病。GPT- 4 比 GPT-3.5 好一些,但也不是完全没有。

Q:AI 幻觉能完全消除吗?

A:目前做不到。只能尽量减少,不能完全消除。这也是为什么 AI 不能完全替代人类。

Q:哪些领域的 AI 幻觉最危险?

A:医疗、法律、金融这些专业领域。涉及重大决策的,一定要人工核实。

总结

AI 幻觉就是 AI 一本正经地胡说八道,这是大模型的固有缺陷。

识别的方法:验证事实、检查引用、看逻辑是否自洽。

记住一个原则:AI 生成的内容,重要的一定要核实。

正文完
 0