Google开源Gemma 4系列模型全攻略
4 月 3 日消息,今天凌晨,Google DeepMind 发布了新一代开源模型系列 Gemma 4,一次性推出四款覆盖端侧到工作站全场景的模型。

- E2B:51 亿总参数、23 亿有效参数,128K 上下文,官方称部分设备内存占用可压至 1.5GB 以下;
- E4B:80 亿总参数、45 亿有效参数,128K 上下文,MMLU Pro 达 69.4%,接近上一代 27B 水平;
- 26B A4B MoE:252 亿总参数、仅 38 亿激活参数,推理速度接近 4B 模型,Arena AI 开源榜排名第六;
- 31B Dense:310 亿参数全激活,256K 上下文,Arena AI 开源榜排名第三。
性能方面,与上一代 Gemma 3 27B 相比提升显著。31B 在 AIME 2026 数学测试中得分 89.2%(上一代为 20.8%),LiveCodeBench v6 代码测试从 29.1% 跃升至 80.0%,长文档处理 MRCR v2 128K 从 13.5% 提升至 66.4%。
所有模型均支持图像和视频输入及 140 多种语言,并内置可开关的思考模式。E2B 和 E4B 额外搭载约 3 亿参数的音频编码器,支持最长 30 秒的语音识别与翻译,可在手机、树莓派及 NVIDIA Jetson Orin Nano 上完全离线运行。
值得注意的是,Gemma 系列开源协议此次全面切换至 Apache 2.0,开发者可自由修改、分发及商用,无用户量门槛限制。Hugging Face 联合创始人 Clément Delangue 对此评价为「重大里程碑」。
免责声明:本站所有信息均来源于互联网搜集,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻删除。




