登录

谷歌发布Gemma 4开源大模型,31 B参数性能达头部水准


速读:今日,谷歌正式推出 Gemma 4 大模型。
2026年04月03日 07:32

IT之家 4 月 3 日消息,今日,谷歌正式推出 Gemma 4 大模型,据称是迄今为止谷歌最智能的开源模型。Gemma 4 专为高级推理与智能体工作流打造,实现了前所未有的“单位参数智能水平”。

IT之家注意到,本次谷歌推出四种规格的 Gemma 4 通用模型:高效 20 亿参数版(E2B)、高效 40 亿参数版(E4B)、260 亿混合专家模型(MoE)与 310 亿稠密模型(31B)。全系产品均超越简单对话场景,可处理复杂逻辑与智能体工作流。

其中大参数量级模型在同规模下实现顶尖性能:31B 模型目前在行业标准 Arena AI 文本榜单中位列 全球开源模型第三 ,26B 模型位居第六。Gemma 4 在榜单上的表现甚至超越了自身规模 20 倍的模型。对开发者而言,这种全新的单位参数智能水平意味着,只需更少的硬件开销,即可实现前沿级 AI 能力。

在端侧设备上,E2B 与 E4B 模型重新定义了本地部署价值:相比单纯堆砌参数,更侧重多模态能力、低延迟处理与生态无缝集成。

以下是 Gemma 4 模型系列的核心优势:

为让研究者与开发者在通用硬件上实现顶尖推理能力而优化,非量化 bfloat16 权重可高效适配单张 80GB 英伟达 H100 GPU;本地部署场景下,量化版本可直接在消费级 GPU 上运行,支撑集成开发环境、编程助手与智能体工作流。26B 混合专家模型(MoE)侧重低延迟,推理时仅激活总参数中的 38 亿,实现极快的令牌生成速度;31B 稠密模型则最大化原始性能,为微调提供强大基础。

从底层设计便追求极致算力与内存效率,推理时实际占用参数分别为 20 亿与 40 亿,节省内存与设备电量。与谷歌 Pixel 团队、高通、联发科等移动硬件厂商深度合作, 让这些多模态模型可在手机、树莓派、英伟达 Jetson Orin Nano 等端侧设备上完全离线、近零延迟运行 。安卓开发者现已可在 AICore 开发者预览版中搭建智能体流程,实现与 Gemini Nano 4 的向前兼容。

主题:模型|实现|Gemma4|谷歌|开源模型