大模型参数量是什么意思?7B、13B、70B到底差在哪?

先说个我被嘲笑很久的事:以为 70B 就是 70 块钱的模型

别笑,真的。

刚开始了解 AI 的时候,看到 ”70B 参数模型 ”,我心想这啥卖 70 块钱?后来才知道,B 是 billion 的意思,70B 就是 700 亿参数。

今天就把大模型参数这件事讲明白,让你以后也能装个内行。

大模型参数量是什么意思?7B、13B、70B 到底差在哪?

参数到底是什么?

大模型里的 ” 参数 ”,你可以理解为 AI 的 ” 脑细胞 ”。

参数越多,模型越 ” 聪明 ”,能力越强。

但这个 ” 脑细胞 ” 不是真正的细胞,是数学里的变量。模型通过调整这些参数,来学习怎么回答问题。

类比理解

人的大脑有大约 860 亿个神经元。AI 模型的参数,就像大脑神经元的数量。参数越多,” 大脑 ” 越发达。

大模型参数量是什么意思?7B、13B、70B 到底差在哪?

7B、13B、70B 到底差在哪?

现在市面上的模型,参数规模大概分几档:

7B(70 亿参数)

入门级别。大概相当于 GPT-3.5 的水平。

优势:普通显卡能跑,8G 显存够了。

劣势:复杂问题容易答错,逻辑能力有限。

适合:日常对话、简单写作、练手学习。

13B(130 亿参数)

中等级别。比 7B 强不少,能处理更复杂的问题。

优势:能力提升明显,性价比高。

劣势:需要好点的显卡,16G 显存起步。

适合:有追求的用户,想本地跑模型的推荐这个。

70B(700 亿参数)

旗舰级别。能力接近 GPT-4,但还没完全达到。

优势:逻辑能力强,理解力好,回答质量高。

劣势:需要顶级显卡,24G 显存勉强跑,4090 比较流畅。

适合:专业用户,不差钱的。

参数越大越好吗?

答案是:看场景。

日常使用

7B-13B 就够了。ChatGPT 的免费版大概就是这个水平,够用。

专业场景

13B-70B,处理复杂任务更强。

不是线性关系

70B 不一定比 13B 强 10 倍。可能只强 2 - 3 倍,但成本高了 10 倍。所以性价比很重要。

大模型参数量是什么意思?7B、13B、70B 到底差在哪?

除了参数,还有什么影响模型能力?

参数只是衡量模型能力的指标之一,还有几个关键因素:

训练数据质量

同样参数量的模型,训练数据更好,能力更强。

微调水平

基础模型加上针对性微调,效果可能比大参数模型更好。

推理优化

同样的参数,经过优化的模型,跑得更快,效果更好。

常见问题

Q:是不是参数越大越聪明?

A:大致是对的,但不是绝对。有些小模型经过精心微调,效果可能超过大参数基础模型。

Q:量化模型是什么意思?

A:量化就是压缩模型大小。用更少的 ” 脑细胞 ” 干活,虽然能力下降一点,但能用更差的显卡跑。

Q:个人用户应该选哪个?

A:普通用户用在线服务就行。想本地跑的,13B 是性价比之选。

总结

参数就是 AI 模型的 ” 脑细胞 ” 数量,7B 就是 70 亿参数。

参数越大越强,但成本也越高。日常用选 7B-13B 就够了,专业场景再考虑更大的。

记住:够用就行,别盲目追大参数。

正文完
 0