Qw

Qwen3-TTS 0.6B

语音大模型

Qwen3-TTS-12Hz-0.6B-Base

发布时间: 2026-01-15

10
模型参数(Parameters)
6.0
最高上下文长度(Context Length)
4K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

4K tokens

最长输出结果

2048 tokens

模型类型

语音大模型

发布时间

2026-01-15

模型预文件大小

1.2GB

推理模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
音频 -- 0

Qwen3-TTS 0.6B模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Qwen3-TTS-12Hz-0.6B-Base模型解读

1. Qwen3-TTS 0.6B 简介与核心特点

Qwen3-TTS 0.6B 是阿里云 Qwen 团队发布的 Qwen3-TTS 系列中的轻量化版本。该模型专为端侧部署和低算力环境设计,在保持了系列核心的 12Hz 离散 token 流技术特性的同时,大幅压缩了参数规模。它旨在提供极致的推理速度和极低的资源占用,同时维持高可用的语音合成质量。

2. 架构与技术规格

  • 模型参数:6亿(0.6B)。
  • 架构特点:采用轻量化的 Transformer 结构,针对移动端和边缘计算设备进行了算子优化。尽管参数量较小,但得益于 Qwen3 系列的高效 tokenizer 和 12Hz 的设计,该模型依然具备流式生成能力。
  • 训练数据:与 1.7B 版本共享大规模多语言高质量音频-文本对齐数据,通过蒸馏等技术保留了基础模型的语言理解能力。

3. 核心能力与支持模态

  • 模态支持:文本输入,音频输出(Text-to-Speech)。
  • 能力详述:
    • 极速合成:在消费级 CPU 或低端 GPU 上即可实现超实时的语音合成速度。
    • 基础多语言:支持中文和英文的标准语音合成,发音清晰自然。
    • 稳定性:在短文本和对话场景下表现出色的稳定性。

4. 性能与基准评测

在轻量级 TTS 模型基准测试中,Qwen3-TTS 0.6B 在推理延迟(Latency)和实时率(RTF)指标上表现优异,优于同参数量级的其他开源模型。虽然在复杂的语音克隆任务上略逊于 1.7B 版本,但在标准朗读任务中,其 MOS 分数非常接近教师模型。

5. 应用场景与限制

  • 推荐用例:移动应用内置语音助手、IoT 设备语音交互、低延迟即时通讯语音生成。
  • 已知局限:由于参数量限制,其零样本声音克隆的相似度和对极长复杂文本的韵律把控不如 1.7B 版本精细。

6. 访问方式与许可

模型权重已在 Hugging Face 开源,代码及模型使用遵循 Apache 2.0 许可协议,适合开发者集成到各类终端应用中。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat