谷歌在 4 月 3 日凌晨悄悄推了一个大更新——Gemma 4,新一代开源模型家族全员到齐。这次更新有两件事值得单独拿出来说:一是许可证改了,二是性能数据开始有点意思了。
许可证这件事,比模型本身更重要
Gemma 系列之前的许可证一直是谷歌自定义的”Gemma Terms of Use”,理论上是”免费使用”,但商业限制含糊,二次分发也有限制,开发者用起来总有一根刺在那。
这次 Gemma 4 全系换成了 Apache 2.0——就是那个被绝大多数开发者、企业和法务部门都认可的开源许可证。意味着什么?你可以:
- 直接基于 Gemma 4 开发商业产品,不需要额外申请
- 自由修改、打包、分发模型
- 在企业内网部署,数据不出公司
这个变化对很多想用 Gemma 做私有化部署的团队来说,直接解除了最大的顾虑。
四个版本,从树莓派到数据中心都能用
Gemma 4 这次发布了 4 个尺寸,命名方式有点不一样——按激活参数量来标注,而不是总参数量:
| 版本 | 激活参数 | 定位 | 上下文窗口 |
|---|---|---|---|
| Gemma 4 E2B | 2B | 手机、边缘设备、树莓派 | 128K |
| Gemma 4 E4B | 4B | 高性能端侧推理 | 128K |
| Gemma 4 26B MoE | 约 3.8B(总量 26B) | 极速响应 + 复杂推理 | 256K |
| Gemma 4 31B Dense | 31B | 高质量微调基座 | 256K |
这里有个细节:26B MoE 虽然总参数 26B,但每次推理只激活约 3.8B,这是混合专家(Mixture of Experts)架构的特点——跑起来既快,内存占用也比看起来小。
E2B 和 E4B 两个端侧版本甚至支持原生音频输入,全系支持图像和视频解析,这个覆盖面在同级开源模型里不算常见。
跑分表现怎么样
31B Dense 版本在 Arena AI 文本排行榜上排到了开源模型第 3 位;26B MoE 版本排第 6,但它能在某些任务上超过参数量大 20 倍的竞争对手——这是 MoE 架构的典型优势:用更少的激活参数换取更低的推理成本。
当然,排行榜是排行榜,实际表现还是要看具体任务。目前社区的反馈是代码能力和长文档处理有明显提升,多语言方面预训练覆盖了 140+ 种语言,中文理解上也有进步。
本地跑需要什么配置
这是大多数人真正关心的问题。
E2B / E4B 端侧版本:按谷歌的说法,专为移动端和嵌入式设备优化,手机级硬件理论上能跑。对于普通电脑用户,消费级显卡(甚至 CPU)应该都能应付 E2B。
26B MoE 版本:未量化的原始权重(bfloat16)在单张 80GB 显存的 H100 上运行;量化之后(比如用 llama.cpp 的 Q4_K_M 量化),16-24GB 显存的消费级显卡也可以跑起来。
31B Dense 版本:本体更重,适合做微调底座;推理场景下量化仍然可以降到 16-24GB 显存范围。
如果你之前用 Ollama 跑过本地模型,升级了 Ollama 0.19 之后可以直接通过命令行拉取 Gemma 4 模型——Ollama 官方模型库已经上线了各个量化版本。
对于完全没有接触过本地部署大模型的朋友,可以先看看《本地部署大模型完全指南:Ollama 与 LM Studio 实战对比》,从基础安装开始一步步来。如果你用的是 Mac,《Ollama 0.19:本地大模型终于能联网了,Mac 跑模型速度也翻了倍》里有 Apple Silicon 专项的性能提升说明,值得一看。
和 Llama、DeepSeek 比起来呢
坦白说,Gemma 系列在真实部署数量上一直落后于 Meta 的 Llama 系列和 DeepSeek,OpenRouter 的数据能印证这一点。原因大概是之前许可证问题 + 谷歌自家工具链用起来有些割裂。
这次 Apache 2.0 的改变,加上 HuggingFace 上已经可以直接下载,生态门槛低了不少。但用户习惯是有惯性的,Gemma 4 能不能从这批发布中拿到真正的开发者份额,得看接下来社区的实际反馈。
对中文开发者来说,DeepSeek 和通义千问系列在中文语境下仍然是首选;Gemma 4 更适合以下几个场景:
- 英文内容处理为主,同时需要多模态(图像+音频)能力
- 对许可证有严格要求的企业级私有化部署
- 想做模型微调的研究者或工程师(31B Dense 是个不错的底座)
- 边缘设备部署场景(E2B/E4B 专门为此优化)
怎么开始
模型已经上 HuggingFace,直接搜索 google/gemma-4 就能找到各个版本。如果用 Ollama,等官方库同步之后直接 ollama run gemma4:e2b 即可(名字可能会有细微差异,以官方仓库为准)。
对于想快速体验但不想折腾本地环境的,Google AI Studio 有在线访问入口,可以先感受一下效果再决定要不要在本地部署。
说在最后: Gemma 4 这波更新,最大的价值不是某一项具体的性能数字,而是许可证改变这件事——它让 Gemma 从”谷歌的开源玩具”变成了一个可以认真进入企业生产环境的选项。至于能不能撼动 Llama 和 DeepSeek 的地位,等社区用起来再说。




发表回复