Gemma 4 正式发布:谷歌终于把开源许可证改了,顺带还带来了一批真正能用的模型

谷歌在 4 月 3 日凌晨悄悄推了一个大更新——Gemma 4,新一代开源模型家族全员到齐。这次更新有两件事值得单独拿出来说:一是许可证改了,二是性能数据开始有点意思了。

许可证这件事,比模型本身更重要

Gemma 系列之前的许可证一直是谷歌自定义的”Gemma Terms of Use”,理论上是”免费使用”,但商业限制含糊,二次分发也有限制,开发者用起来总有一根刺在那。

这次 Gemma 4 全系换成了 Apache 2.0——就是那个被绝大多数开发者、企业和法务部门都认可的开源许可证。意味着什么?你可以:

  • 直接基于 Gemma 4 开发商业产品,不需要额外申请
  • 自由修改、打包、分发模型
  • 在企业内网部署,数据不出公司

这个变化对很多想用 Gemma 做私有化部署的团队来说,直接解除了最大的顾虑。

四个版本,从树莓派到数据中心都能用

Gemma 4 这次发布了 4 个尺寸,命名方式有点不一样——按激活参数量来标注,而不是总参数量:

版本激活参数定位上下文窗口
Gemma 4 E2B2B手机、边缘设备、树莓派128K
Gemma 4 E4B4B高性能端侧推理128K
Gemma 4 26B MoE约 3.8B(总量 26B)极速响应 + 复杂推理256K
Gemma 4 31B Dense31B高质量微调基座256K

这里有个细节:26B MoE 虽然总参数 26B,但每次推理只激活约 3.8B,这是混合专家(Mixture of Experts)架构的特点——跑起来既快,内存占用也比看起来小。

E2B 和 E4B 两个端侧版本甚至支持原生音频输入,全系支持图像和视频解析,这个覆盖面在同级开源模型里不算常见。

跑分表现怎么样

31B Dense 版本在 Arena AI 文本排行榜上排到了开源模型第 3 位;26B MoE 版本排第 6,但它能在某些任务上超过参数量大 20 倍的竞争对手——这是 MoE 架构的典型优势:用更少的激活参数换取更低的推理成本。

当然,排行榜是排行榜,实际表现还是要看具体任务。目前社区的反馈是代码能力和长文档处理有明显提升,多语言方面预训练覆盖了 140+ 种语言,中文理解上也有进步。

本地跑需要什么配置

这是大多数人真正关心的问题。

E2B / E4B 端侧版本:按谷歌的说法,专为移动端和嵌入式设备优化,手机级硬件理论上能跑。对于普通电脑用户,消费级显卡(甚至 CPU)应该都能应付 E2B。

26B MoE 版本:未量化的原始权重(bfloat16)在单张 80GB 显存的 H100 上运行;量化之后(比如用 llama.cpp 的 Q4_K_M 量化),16-24GB 显存的消费级显卡也可以跑起来。

31B Dense 版本:本体更重,适合做微调底座;推理场景下量化仍然可以降到 16-24GB 显存范围。

如果你之前用 Ollama 跑过本地模型,升级了 Ollama 0.19 之后可以直接通过命令行拉取 Gemma 4 模型——Ollama 官方模型库已经上线了各个量化版本。

对于完全没有接触过本地部署大模型的朋友,可以先看看《本地部署大模型完全指南:Ollama 与 LM Studio 实战对比》,从基础安装开始一步步来。如果你用的是 Mac,《Ollama 0.19:本地大模型终于能联网了,Mac 跑模型速度也翻了倍》里有 Apple Silicon 专项的性能提升说明,值得一看。

和 Llama、DeepSeek 比起来呢

坦白说,Gemma 系列在真实部署数量上一直落后于 Meta 的 Llama 系列和 DeepSeek,OpenRouter 的数据能印证这一点。原因大概是之前许可证问题 + 谷歌自家工具链用起来有些割裂。

这次 Apache 2.0 的改变,加上 HuggingFace 上已经可以直接下载,生态门槛低了不少。但用户习惯是有惯性的,Gemma 4 能不能从这批发布中拿到真正的开发者份额,得看接下来社区的实际反馈。

对中文开发者来说,DeepSeek 和通义千问系列在中文语境下仍然是首选;Gemma 4 更适合以下几个场景:

  1. 英文内容处理为主,同时需要多模态(图像+音频)能力
  2. 对许可证有严格要求的企业级私有化部署
  3. 想做模型微调的研究者或工程师(31B Dense 是个不错的底座)
  4. 边缘设备部署场景(E2B/E4B 专门为此优化)

怎么开始

模型已经上 HuggingFace,直接搜索 google/gemma-4 就能找到各个版本。如果用 Ollama,等官方库同步之后直接 ollama run gemma4:e2b 即可(名字可能会有细微差异,以官方仓库为准)。

对于想快速体验但不想折腾本地环境的,Google AI Studio 有在线访问入口,可以先感受一下效果再决定要不要在本地部署。


说在最后: Gemma 4 这波更新,最大的价值不是某一项具体的性能数字,而是许可证改变这件事——它让 Gemma 从”谷歌的开源玩具”变成了一个可以认真进入企业生产环境的选项。至于能不能撼动 Llama 和 DeepSeek 的地位,等社区用起来再说。

推荐文章

  • Gemma 4 正式发布:谷歌终于把开源许可证改了,顺带还带来了一批真正能用的模型

    谷歌在 4 月 3 日凌晨悄悄推了一个大更新——Gemma 4,新一代开源模型家族全员到齐。这次更新有两件事值得单独拿出来说:一是许可证改了,二是性能数据开始有点意思了。 许可证这件事,比模型本身更重…

  • 豆包日均120万亿Token:字节AI的全线爆发,以及那个刚开放的视频模型

    4月2日,火山引擎总裁谭待在武汉的一场活动上抛出了一个数字:120万亿。 这是豆包大模型截至2026年3月的日均Token调用量。中国第一,全球前三。两年前,2024年5月豆包刚发布的时候,这个数字是…

  • Claude Code 源码泄露风波:51万行代码、三大隐私机制曝光,这已经是第二次了

    2026年3月31日,Anthropic碰上了一个不大不小的尴尬。 它们的AI编程工具Claude Code在发布npm包时,不小心把一个57MB的cli.js.map源映射文件打进了发布包里。这个看…

  • Ollama 0.19 发布:本地大模型终于能联网了,Mac 跑模型速度也翻了倍

    本地大模型的使用体验,从 3 月 30 日起有了明显的变化。 Ollama 在这天发布了 0.19 版本预览版,同时官方博客贴出了一篇文章:Ollama is now powered by MLX o…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

暗夜独行