先泼盆冷水:不是所有人都需要本地部署
我知道你想在本地跑个 GPT- 4 级别的 AI,关起门来随便用。但我得说实话:家用的消费级显卡,暂时还跑不动那种级别的大模型。
本地部署适合的是那些特定场景:想要隐私保护、不想付订阅费、有特定定制需求的用户。
搞清楚自己为什么要本地部署,比一头扎进去重要多了。

最低配置要求
先说最低要求,低于这个配置就别折腾了:
显卡
NVIDIA RTX 3060 12G 显存起步。注意是 12G 版本,不是 8G。显存不够的话,跑稍微大点的模型就会爆显存。
AMD 显卡也能用,但支持没有 NVIDIA 好,有些工具不兼容。
内存
16G 起步。建议 32G,能跑得更流畅。
硬盘
至少 100G 可用空间。模型文件动不动就几十 GB,硬盘太小会很局促。
SSD 固态硬盘是必须的,机械硬盘速度太慢,会卡到你怀疑人生。

不同档位配置推荐
入门档:3000-5000 元
RTX 3060 12G + i5/Ryzen 5 + 16G 内存 + 500G SSD
能跑 7B 参数模型,勉强够用。要求不高的话可以考虑。
标准档:8000-12000 元
RTX 4070 Ti Super 16G/4080 Super + i7/Ryzen 7 + 32G 内存 + 1T SSD
14B 参数模型能跑得比较流畅,大多数场景够用了。
发烧档:15000 元以上
RTX 4090 24G + i9/Ryzen 9 + 64G 内存 + 2T SSD
这个配置基本可以流畅跑 14B,部分 34B 量化模型也能跑。
Mac 用户怎么选
如果你用 Mac,M 系列芯片的机器其实挺适合跑本地 AI 的。
M1/M2/M3 Pro/Max
内存足够的话(36G 以上),跑本地模型效率很高。Ollama 对 Mac 优化得很好,直接 brew install ollama 就能用。
Mac 的优势是功耗低、噪音小,可以长时间跑。缺点是可选的模型没有 Windows 多。
云服务器方案
如果本地配置不够,又想跑大模型,云服务器是个选择:
推荐配置
• 腾讯云、阿里云的 GPU 实例
• 最低选择 T4 GPU,按小时计费大概 1 - 3 元 / 小时
• 高端选择 A100,按小时计费 10-30 元 / 小时
适合偶尔需要跑大模型,但不想买电脑的用户。

常见问题
Q:GTX 显卡能用吗?
A:不太推荐。GTX 系列不支持 CUDA 加速,效率会低很多。
Q:笔记本能跑吗?
A:游戏本可以,台式机更好。笔记本散热是问题,长时间跑可能会降频。
Q:需要自己装 Linux 吗?
A:不用。现在 Windows 原生支持就很好,Ollama、LM Studio 这些工具 Windows 版都很完善。
Q:多久会过时?
A:AI 发展太快了,但一块 RTX 4090 至少能用 3 - 5 年。买主流配置就行,别追最顶级。
总结
本地部署 AI 的门槛已经降低很多了,预算 6000 左右就能组一台能跑的机器。
但还是那句话:先想清楚为什么要本地部署,别为了折腾而折腾。
如果只是想用 AI 提高效率,直接订阅在线服务更划算。本地部署适合有特殊需求或者想深入研究 AI 的用户。
