Ge

Gemini Embedding 2

embedding模型

Gemini Embedding 2

发布时间: 2026-03-10

46
模型参数(Parameters)
未披露
最高上下文长度(Context Length)
8K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

8K tokens

最长输出结果

3072 tokens

模型类型

embedding模型

发布时间

2026-03-10

模型预文件大小
暂无数据
思考模式
常规模式(Non-Thinking Mode)

开源和体验地址

代码开源状态
不开源
预训练权重开源
不开源 - 不开源
GitHub 源码
暂无GitHub开源地址
Hugging Face
暂无开源HuggingFace地址
在线体验
暂无在线体验地址

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格
暂无公开的 API 定价信息。

Gemini Embedding 2模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Gemini Embedding 2模型解读

Gemini Embedding 2 模型概述

Gemini Embedding 2 是由 Google DeepMind 发布的一款向量嵌入模型,属于 Gemini 模型系列中的 embedding 能力组件。该模型于 2026 年 3 月通过 Gemini API 与 Vertex AI 以 Public Preview 形式开放。与此前主要面向文本的 embedding 模型不同,Gemini Embedding 2 是 Google 首个原生多模态 embedding 模型,能够将文本、图像、视频、音频以及文档等多种数据类型映射到统一的向量空间中,从而支持跨模态检索与语义分析等应用。

架构与技术规格

Gemini Embedding 2 构建在 Gemini 模型架构之上,并继承了 Gemini 系列在多模态理解方面的能力。模型支持最长约 8192 tokens 的文本输入。输出向量维度默认推荐为 3072,并支持通过 Matryoshka Representation Learning(MRL)技术进行维度缩减,例如 1536 或 768,以在性能与存储成本之间取得平衡。该技术允许在保持语义信息层次结构的前提下动态缩减 embedding 维度。

官方尚未公开该模型的参数规模与激活参数规模,因此相关数值未披露。

核心能力与模态支持

Gemini Embedding 2 的核心能力在于将不同模态的数据统一编码到同一语义向量空间,从而支持跨媒体语义理解与检索。模型支持以下输入类型:

  • 文本:支持最长约 8192 tokens 的文本输入。
  • 图像:单次请求最多支持约 6 张图像输入(PNG、JPEG)。
  • 视频:支持最长约 120 秒的视频输入(MP4、MOV)。
  • 音频:支持直接处理音频数据并生成 embedding,无需先转录为文本。
  • 文档:支持直接处理 PDF 文档,最大约 6 页。

该模型还支持多模态混合输入,例如图像与文本组合,从而捕获不同模态之间的语义关系。

应用场景

由于能够统一表示多种数据类型,Gemini Embedding 2 可用于构建多模态语义搜索系统、跨媒体检索、推荐系统、内容聚类、数据分析以及 Retrieval-Augmented Generation(RAG) 等应用。通过统一向量空间,可以简化传统需要多模型组合的多模态处理流程。

访问方式

开发者可以通过 Gemini API 或 Google Cloud Vertex AI 访问 Gemini Embedding 2。目前该模型以 Public Preview 形式提供,并支持在常见 AI 框架与工具链中使用,例如 LangChain、LlamaIndex、Haystack、Weaviate、Qdrant 与 Chroma 等向量数据库系统。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat