大厂AI是怎么优化幻觉问题的?技术方向科普

大厂 AI 越来越准,背后做了哪些努力?

从 GPT- 3 到 GPT-4,从 Claude 2 到 Claude 3,明显感觉 AI 越来越靠谱了。

大厂们在减少 AI 幻觉方面都做了哪些技术努力?今天说说这个。

大厂 AI 是怎么优化幻觉问题的?技术方向科普

主要技术方向

RAG 检索增强生成

让 AI 在回答前先检索真实资料,再基于资料回答。

效果显著,幻觉大幅减少。

强化学习对齐

用人类反馈训练 AI,让它学会在不确定时说 ” 不知道 ”。

这就是 RLHF 技术。

思维链提示

让 AI 展示推理过程,减少跳跃性错误。

大厂 AI 是怎么优化幻觉问题的?技术方向科普

各公司的优化策略

OpenAI

• RLHF 强化学习对齐

• 持续更新模型

• 用户反馈收集优化

Anthropic

• Constitutional AI

• AI 自己检查自己的回答

• 强调 AI 的有帮助且无害

Google

• 知识图谱增强

• 实时联网搜索

• 多模态融合

技术挑战

无法完全消除

只要是基于语言模型的架构,幻觉就无法完全消除。

精度与能力的平衡

过度限制 AI 可能导致它过于保守,无法提供有用的回答。

评估标准缺失

如何衡量幻觉的 ” 多少 ” 还没有统一标准。

未来方向

知识图谱深度整合

让 AI 更依赖结构化知识而非模糊统计。

不确定性表达

让 AI 学会量化自己的置信度。

多模型协作

多个 AI 互相验证,减少错误。

常见问题

Q:哪个公司的 AI 幻觉最少?

A:不同方面各有优势。整体上最新最强的模型幻觉最少。

Q:未来几年会有突破吗?

A:会有进步,但完全消除不太可能。

总结

大厂主要通过 RAG、强化学习对齐、思维链提示等技术减少幻觉。

这些技术效果显著,但无法完全消除幻觉。

未来会有更多创新,但需要时间和努力。

正文完
 0