先说个我被嘲笑很久的事:以为 70B 就是 70 块钱的模型
别笑,真的。
刚开始了解 AI 的时候,看到 ”70B 参数模型 ”,我心想这啥卖 70 块钱?后来才知道,B 是 billion 的意思,70B 就是 700 亿参数。
今天就把大模型参数这件事讲明白,让你以后也能装个内行。

参数到底是什么?
大模型里的 ” 参数 ”,你可以理解为 AI 的 ” 脑细胞 ”。
参数越多,模型越 ” 聪明 ”,能力越强。
但这个 ” 脑细胞 ” 不是真正的细胞,是数学里的变量。模型通过调整这些参数,来学习怎么回答问题。
类比理解
人的大脑有大约 860 亿个神经元。AI 模型的参数,就像大脑神经元的数量。参数越多,” 大脑 ” 越发达。

7B、13B、70B 到底差在哪?
现在市面上的模型,参数规模大概分几档:
7B(70 亿参数)
入门级别。大概相当于 GPT-3.5 的水平。
优势:普通显卡能跑,8G 显存够了。
劣势:复杂问题容易答错,逻辑能力有限。
适合:日常对话、简单写作、练手学习。
13B(130 亿参数)
中等级别。比 7B 强不少,能处理更复杂的问题。
优势:能力提升明显,性价比高。
劣势:需要好点的显卡,16G 显存起步。
适合:有追求的用户,想本地跑模型的推荐这个。
70B(700 亿参数)
旗舰级别。能力接近 GPT-4,但还没完全达到。
优势:逻辑能力强,理解力好,回答质量高。
劣势:需要顶级显卡,24G 显存勉强跑,4090 比较流畅。
适合:专业用户,不差钱的。
参数越大越好吗?
答案是:看场景。
日常使用
7B-13B 就够了。ChatGPT 的免费版大概就是这个水平,够用。
专业场景
13B-70B,处理复杂任务更强。
不是线性关系
70B 不一定比 13B 强 10 倍。可能只强 2 - 3 倍,但成本高了 10 倍。所以性价比很重要。

除了参数,还有什么影响模型能力?
参数只是衡量模型能力的指标之一,还有几个关键因素:
训练数据质量
同样参数量的模型,训练数据更好,能力更强。
微调水平
基础模型加上针对性微调,效果可能比大参数模型更好。
推理优化
同样的参数,经过优化的模型,跑得更快,效果更好。
常见问题
Q:是不是参数越大越聪明?
A:大致是对的,但不是绝对。有些小模型经过精心微调,效果可能超过大参数基础模型。
Q:量化模型是什么意思?
A:量化就是压缩模型大小。用更少的 ” 脑细胞 ” 干活,虽然能力下降一点,但能用更差的显卡跑。
Q:个人用户应该选哪个?
A:普通用户用在线服务就行。想本地跑的,13B 是性价比之选。
总结
参数就是 AI 模型的 ” 脑细胞 ” 数量,7B 就是 70 亿参数。
参数越大越强,但成本也越高。日常用选 7B-13B 就够了,专业场景再考虑更大的。
记住:够用就行,别盲目追大参数。
