Gemma 4 120B
不支持
128K tokens
8192 tokens
基础大模型
2026-05-19
Gemma 4 120B 是社区在2026年初讨论的一款可能属于 Gemma 系列下一代模型的大规模语言模型。截至目前,Google DeepMind 尚未正式发布或确认该模型的存在,也未公开任何官方模型卡、论文或技术报告。关于该模型的信息主要来自开发者社区、X(Twitter)上的模型追踪账号以及对 Google AI 仓库更新的观察。
Gemma 系列是 Google DeepMind 发布的开放权重语言模型家族,其设计目标是为研究人员和开发者提供能够在本地或私有环境运行的高效大语言模型。该系列模型最早于 2024 年发布,并逐步扩展出多个规模与衍生模型,例如 CodeGemma、PaliGemma、MedGemma 以及 Gemma 3 等。
Gemma 模型被认为是基于 Google Gemini 系列模型蒸馏或架构经验构建的开放权重模型。Gemma 3 于 2025 年发布,提供 1B、4B、12B 和 27B 等多个参数规模,并在部分版本中引入更长上下文窗口以及视觉理解能力。这些模型被广泛用于本地推理、研究实验以及边缘计算环境。
在此背景下,社区普遍认为 Google 可能会推出新一代 Gemma 系列模型。部分开发者在 X 平台的讨论中提到存在一个规模约为 120B 参数的版本,因此常被称为“Gemma 4 120B”。不过,这一规模和命名方式目前尚未得到 Google 官方确认。
根据社区讨论,Gemma 4 120B 可能代表 Gemma 系列首次进入百亿级以上参数规模的大模型层级。如果这一模型确实存在,其定位可能是该系列的旗舰版本,用于提供更强的语言理解、推理能力以及复杂任务处理能力。
需要强调的是,目前关于该模型的具体架构(例如是否采用 Mixture-of-Experts 架构)、训练数据规模、上下文窗口以及多模态能力等信息均未在官方渠道披露。因此,任何关于这些技术细节的描述都仍然属于推测。
截至目前公开资料显示,Google DeepMind 官方仅发布到 Gemma 3 系列模型。Gemma 4 以及 120B 参数规模版本尚未在 Google AI 官方文档、技术博客或 Hugging Face 仓库中正式出现。因此,该模型应被视为尚未发布的传闻或开发阶段模型,其最终规格和发布时间仍需等待官方确认。
关注DataLearnerAI微信公众号,接受最新大模型资讯