Tr

TranslateGemma 12B

翻译大模型

TranslateGemma 12B

发布时间: 2026-01-15

58
模型参数(Parameters)
13.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

128K tokens

最长输出结果

8192 tokens

模型类型

翻译大模型

发布时间

2026-01-15

模型预文件大小

25GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

TranslateGemma 12B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

TranslateGemma 12B模型解读

TranslateGemma 12B 是 Google DeepMind 发布的开源翻译模型系列中的中等尺寸版本。该模型在性能与效率之间取得了极佳平衡,官方数据显示其翻译质量超越了参数量更大的 Gemma 3 27B 基线模型。

1. 模型简介与核心特点
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 核心优势: “以小博大”,通过高质量数据微调和强化学习,在 12B 尺寸上实现了超越前代更大模型的翻译准确率。

2. 架构与技术规格
- 模型参数: 约 13 亿 (HuggingFace 标注 13B,对应 12B 命名)。
- 训练流程: 采用两阶段微调:(1) SFT:混合人类翻译与 Gemini 合成数据;(2) RL:使用 MetricX-QE 等奖励模型进行偏好优化。
- 架构: 基于 Transformer Decoder,继承了 Gemma 3 的多模态理解能力。

3. 核心能力与支持模态
- 多模态翻译: 原生支持图像输入,可直接翻译图片内的文本信息,无需额外的 OCR 步骤,且在 Vistra 基准测试中表现优异。
- 语言支持: 覆盖 55 种核心语言,并在罗曼语族和日耳曼语族上表现出显著的质量提升。

4. 性能与基准评测
- WMT24++: 在 MetricX 评分体系下,12B 版本的误差率低于 Gemma 3 27B 基线模型。
- 效率: 适合在消费级 GPU(如 NVIDIA RTX 4090)或高性能笔记本上运行。

5. 应用场景与限制
- 推荐场景: 本地化工作流、开发者工具集成、高性能桌面应用、学术研究。
- 输入限制: 用户角色输入必须遵循特定的 JSON 列表格式,包含 source/target 语言代码。

6. 访问方式
- 协议: Gemma Terms of Use。
- 获取: Hugging Face, Kaggle。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat