大厂 AI 越来越准,背后做了哪些努力?
从 GPT- 3 到 GPT-4,从 Claude 2 到 Claude 3,明显感觉 AI 越来越靠谱了。
大厂们在减少 AI 幻觉方面都做了哪些技术努力?今天说说这个。

主要技术方向
RAG 检索增强生成
让 AI 在回答前先检索真实资料,再基于资料回答。
效果显著,幻觉大幅减少。
强化学习对齐
用人类反馈训练 AI,让它学会在不确定时说 ” 不知道 ”。
这就是 RLHF 技术。
思维链提示
让 AI 展示推理过程,减少跳跃性错误。

各公司的优化策略
OpenAI
• RLHF 强化学习对齐
• 持续更新模型
• 用户反馈收集优化
Anthropic
• Constitutional AI
• AI 自己检查自己的回答
• 强调 AI 的有帮助且无害
• 知识图谱增强
• 实时联网搜索
• 多模态融合
技术挑战
无法完全消除
只要是基于语言模型的架构,幻觉就无法完全消除。
精度与能力的平衡
过度限制 AI 可能导致它过于保守,无法提供有用的回答。
评估标准缺失
如何衡量幻觉的 ” 多少 ” 还没有统一标准。
未来方向
知识图谱深度整合
让 AI 更依赖结构化知识而非模糊统计。
不确定性表达
让 AI 学会量化自己的置信度。
多模型协作
多个 AI 互相验证,减少错误。
常见问题
Q:哪个公司的 AI 幻觉最少?
A:不同方面各有优势。整体上最新最强的模型幻觉最少。
Q:未来几年会有突破吗?
A:会有进步,但完全消除不太可能。
总结
大厂主要通过 RAG、强化学习对齐、思维链提示等技术减少幻觉。
这些技术效果显著,但无法完全消除幻觉。
未来会有更多创新,但需要时间和努力。
正文完
