上下文窗口是什么?为什么越长的AI越好用?

先说个我遇到的尴尬事:聊着聊着 AI 就忘了前面说过啥

有次我跟 AI 讨论一个复杂的技术方案,聊了十几轮,突然 AI 问了一句:” 你说的这个项目是什么来着?”

我当时就懵了,明明第一轮就说过啊。后来才知道,这是上下文窗口不够长,AI 把前面的内容 ” 忘 ” 了。

今天就把上下文窗口这件事讲清楚。

上下文窗口是什么?为什么越长的 AI 越好用?

什么是上下文窗口?

上下文窗口(Context Window),就是 AI 能 ” 记住 ” 的最大文本量。

打个比方:你在跟人聊天,对方有个小本本记你们说过的话。但这个本本页数有限,记满了就得擦掉前面的。

AI 的 ” 小本本 ” 就是上下文窗口,页数就是窗口大小。

为什么有这个限制?

技术上说,AI 处理文本需要把所有内容都加载到内存里。内容越长,计算量越大,成本越高。所以必须有个上限。

上下文窗口是什么?为什么越长的 AI 越好用?

不同模型的上下文窗口

ChatGPT 系列

• GPT-3.5:4K tokens(约 3000 字)

• GPT-3.5 Turbo 16K:16K tokens

• GPT-4:8K tokens

• GPT-4 Turbo:128K tokens(约 10 万字)

Claude 系列

• Claude 2:100K tokens

• Claude 3:200K tokens

Claude 的上下文窗口比 ChatGPT 大很多,这是它的优势之一。

国产模型

• 通义千问:32K-128K

• 文心一言:8K-32K

• Kimi:200K(号称超长上下文)

为什么越长的 AI 越好用?

能记住更多对话

上下文短,聊几轮就忘了。上下文长,可以聊几十轮还记得清清楚楚。

能处理更长文档

想让 AI 帮你分析一份 50 页的报告?上下文窗口得够大才能装得下。

减少重复说明

上下文长,你说的背景信息 AI 一直记得,不用每轮都重复。

上下文窗口是什么?为什么越长的 AI 越好用?

上下文用完了会怎样?

当对话内容超过上下文窗口,AI 会 ” 忘记 ” 最早的内容。

具体表现:

• 忘记之前说过的背景信息

• 重复问已经回答过的问题

• 回答质量下降,因为缺少上下文

解决办法:开启新对话,或者让 AI 总结之前的内容。

怎么省着用上下文?

技巧一:精简提问

别啰嗦,一句话能说清楚的就别用三句。

技巧二:适时总结

聊到一定程度,让 AI 总结一下当前讨论的结论,然后开启新对话继续。

技巧三:分段处理长文档

文档太长,分成几段分别处理,最后汇总。

常见问题

Q:上下文越大越好吗?

A:理论上是的,但也要看成本。长上下文的 API 调用更贵。

Q:128K tokens 是多少字?

A:中文大约 8 -10 万字,英文大约 10 万单词。

Q:能突破上下文限制吗?

A:不能。这是模型架构决定的,不是软件限制。

总结

上下文窗口就是 AI 的 ” 短期记忆容量 ”,越大越好用。

选 AI 的时候,除了看参数量,也要看上下文窗口大小。

处理长文档或多轮对话,优先选上下文长的模型。

正文完
 0