Ge

Gemma 4 120B

基础大模型

Gemma 4 120B

发布时间: 2026-05-19

26
模型参数(Parameters)
1200.0
最高上下文长度(Context Length)
128K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

128K tokens

最长输出结果

8192 tokens

模型类型

基础大模型

发布时间

2026-05-19

模型预文件大小
暂无数据
思考模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
暂无官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Gemma 4 120B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Gemma 4 120B模型解读

Gemma 4 120B 模型概览

Gemma 4 120B 是社区在2026年初讨论的一款可能属于 Gemma 系列下一代模型的大规模语言模型。截至目前,Google DeepMind 尚未正式发布或确认该模型的存在,也未公开任何官方模型卡、论文或技术报告。关于该模型的信息主要来自开发者社区、X(Twitter)上的模型追踪账号以及对 Google AI 仓库更新的观察。

Gemma 系列是 Google DeepMind 发布的开放权重语言模型家族,其设计目标是为研究人员和开发者提供能够在本地或私有环境运行的高效大语言模型。该系列模型最早于 2024 年发布,并逐步扩展出多个规模与衍生模型,例如 CodeGemma、PaliGemma、MedGemma 以及 Gemma 3 等。

Gemma 系列发展背景

Gemma 模型被认为是基于 Google Gemini 系列模型蒸馏或架构经验构建的开放权重模型。Gemma 3 于 2025 年发布,提供 1B、4B、12B 和 27B 等多个参数规模,并在部分版本中引入更长上下文窗口以及视觉理解能力。这些模型被广泛用于本地推理、研究实验以及边缘计算环境。

在此背景下,社区普遍认为 Google 可能会推出新一代 Gemma 系列模型。部分开发者在 X 平台的讨论中提到存在一个规模约为 120B 参数的版本,因此常被称为“Gemma 4 120B”。不过,这一规模和命名方式目前尚未得到 Google 官方确认。

可能的技术定位

根据社区讨论,Gemma 4 120B 可能代表 Gemma 系列首次进入百亿级以上参数规模的大模型层级。如果这一模型确实存在,其定位可能是该系列的旗舰版本,用于提供更强的语言理解、推理能力以及复杂任务处理能力。

需要强调的是,目前关于该模型的具体架构(例如是否采用 Mixture-of-Experts 架构)、训练数据规模、上下文窗口以及多模态能力等信息均未在官方渠道披露。因此,任何关于这些技术细节的描述都仍然属于推测。

发布状态

截至目前公开资料显示,Google DeepMind 官方仅发布到 Gemma 3 系列模型。Gemma 4 以及 120B 参数规模版本尚未在 Google AI 官方文档、技术博客或 Hugging Face 仓库中正式出现。因此,该模型应被视为尚未发布的传闻或开发阶段模型,其最终规格和发布时间仍需等待官方确认。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat