Tr

TranslateGemma 4B

翻译大模型

TranslateGemma 4B

发布时间: 2026-01-15

96
模型参数(Parameters)
5.0
最高上下文长度(Context Length)
128K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

128K tokens

最长输出结果

8192 tokens

模型类型

翻译大模型

发布时间

2026-01-15

模型预文件大小

10GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Gemma Terms of Use - 免费商用授权
GitHub 源码
暂无GitHub开源地址
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

TranslateGemma 4B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

TranslateGemma 4B模型解读

TranslateGemma 是 Google DeepMind 发布的一系列基于 Gemma 3 架构的最先进开放翻译模型。本模型为 4B 参数版本,专为移动设备和边缘计算环境优化,实现了在受限资源下运行高性能翻译任务。

1. 模型简介与核心特点
- 发布机构: Google DeepMind
- 发布时间: 2026年1月15日
- 定位: Gemma 3 家族中的专用翻译模型。
- 核心目标: 提供轻量级、高质量的开源翻译解决方案,打破语言障碍,支持在本地设备上离线运行。

2. 架构与技术规格
- 模型参数: 约 50 亿 (HuggingFace 标注 5B,对应 4B 命名)。
- 架构特点: 基于 Gemma 3 基础模型,经历了两个阶段的微调:首先使用包含人类翻译和 Gemini 生成的合成数据的海量平行语料进行监督微调 (SFT),然后使用 MetricX-QE 和 AutoMQM 等奖励模型进行强化学习 (RL) 优化。
- 上下文窗口: 128K (基于 Gemma 3 架构推断)。

3. 核心能力与支持模态
- 多模态支持: 支持 文本-文本 翻译以及 图像-文本 翻译(可直接翻译图像中的文字)。
- 语言覆盖: 核心支持 55 种语言(涵盖西班牙语、法语、中文、印地语等主要语言及部分低资源语言),并在训练中接触了超过 500 个语言对。
- 输入格式: 采用“高度固执”(highly opinionated)的 Chat Template,要求严格的 JSON 格式输入(包含 type, source_lang_code, target_lang_code 等)。

4. 性能与基准评测
- 性能表现: 尽管参数较小,但通过蒸馏 Gemini 的能力,其翻译质量在多项基准测试中表现优异,特定场景下误差率显著低于基线模型。

5. 应用场景
- 推荐用例: 移动应用内置翻译、实时聊天翻译、旅行助手、离线文档翻译。
- 部署优势: 适合在手机、平板等端侧设备部署。

6. 访问与许可
- 开源协议: Gemma Terms of Use (允许商用,但在特定高风险领域受限)。
- 访问方式: 可通过 Hugging Face、Kaggle 下载权重,或在 Vertex AI 上部署。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat