Google开源战略急转弯:Gemma 4换用宽松许可证,开发者社区松口气

4次阅读

# 【科技头条】Google开源战略急转弯:Gemma 4换用宽松许可证,开发者社区松口气

## 导语

搞AI开发的人大概都记得被Gemma 3那个"自定义许可证"折腾的日子——条款又多又绕,Google哪天心情不好还能单方面改规则,不少团队用着用着就开始心里发虚。如今,Google直接宣布Gemma 4全面切换到Apache 2.0许可证,开发者圈子里一片叫好。这不只是换个授权文件那么简单,它意味着Google对开源这件事的态度正在发生微妙变化。

## 背景

Google做开源模型其实已经有段时间了,Gemma系列从去年开始迭代,前身是Gemini的"轻量版"——可以在本地机器上跑的那种。但Gemma 3一直被人吐槽的不是性能,而是许可证。那份自定义协议要求开发者对Google的"禁止用途"条款负责,还禁止用Gemma生成的数据来训练其他AI模型——这条款宽泛到让很多人觉得迟早会踩坑。

2026年4月2日,Google正式发布Gemma 4,第一个重大改变就是:彻底放弃自定义许可,拥抱Apache 2.0。

## 核心信息

Gemma 4这次推出了四个规模的版本,覆盖了从手机到高端GPU的不同硬件。

两个"大块头"分别是260亿参数的MoE版本和310亿参数的Dense版本。Google说,26B MoE在推理时实际只激活38亿参数,速度比同级别的密集模型快很多;31B Dense则更侧重质量,适合在单张80GB显存的Nvidia H100上跑——虽然那张显卡要花大约20万人民币,但毕竟是"本地运行",数据不出局。

另外两个袖珍版本叫E2B和E4B,"E"代表"Effective",实际参数量相当于20亿和40亿级别。Google拉上了高通和联发科,专门针对手机芯片做了优化,未来在Pixel以及树莓派、Jetson Nano这类设备上都能跑,而且主打低延迟和低功耗——说是下一代手机本地AI的方向。

性能方面,Google宣称31B版本在开放模型排行榜上能排到第三,仅次于GLM-5和Kimi 2.5,但参数量只有它们的零头,运行成本自然也低得多。模型基于与Gemini 3相同的技术栈,在推理、数学、代码生成和视觉理解上都有提升,上下文窗口分别扩展到了128k(移动版)和256k(旗舰版)。

## 许可证意味着什么

对开发者来说,Apache 2.0最大的好处就是"省心"。这份许可证允许你随便用、随便改、随便商用,不需要给Google打招呼,也不存在哪天突然被收回使用权的问题。用Gemma 3的数据训练自己的模型?以前要小心翼翼,现在完全自由。

这种转变背后,是Google在开源AI生态里的策略调整。开源社区对"围墙花园"式授权越来越敏感,Meta的Llama系列又一直保持相对宽松的路线,Google如果继续端着那个定制协议,只会把开发者推向别家。

从Gemma 4开始,Google把这种开放定位为"Gemmaverse"——听听这名字,野心是有的。

## 对行业的影响

这场许可证的切换正在引发连锁反应。首先,更多企业会考虑把原来跑在云端API上的AI能力迁移到本地,在数据隐私要求高的场景里,这是真实需求。其次,手机厂商有动力在本地部署更强大的模型,不需要依赖云端延迟,也不产生流量费用。最后,对于树莓派、Jetson这类边缘设备而言,Gemma 4的性能密度意味着端侧AI正在从概念走向实用。

## 结语

Gemma 4的许可证切换,算是Google近年来在开源立场上最务实的一步。技术再好,如果用起来处处受限,开发者的耐心终究有限。Apache 2.0不只是一纸协议,它代表的是一种可预期的合作关系——你在用的东西不会突然变脸。

至于Gemma 4本身能走多远,就看开发者社区买不买单了。

---

来源:Ars Technica (2026年4月) https://arstechnica.com/ai/2026/04/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license/
来源:Google 官方博客 https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

正文完
 0