谷歌正式推出全新 Gemini Embedding2模型。作为谷歌首个原生多模态嵌入模型,它打破了传统模型仅支持单一数据类型的局限,能够将文本、图像、视频、音频和文档同时映射到同一个数学向量空间中,从而实现跨媒体的深度理解。
与专注于内容创作的 Gemini3等生成式模型不同,嵌入模型的核心职能是“理解”。它通过将复杂数据转化为机器可读的向量,帮助系统识别语义关系,在搜索精度和上下文关联上远超传统的关键词检索。

Gemini Embedding2的技术特性与突破:
全能多模态支持:该模型不仅支持文本,还可直接处理 PNG/JPEG 图像、最长120秒的 MP4/MOV 视频、原生音频数据以及最多6页的 PDF 文档。
全球化语言理解:支持在全球100种语言中精准识别用户的语义意图。
多维度联合分析:模型可以在单次请求中同时接收“图像 + 文本”等组合输入,从而深度分析不同媒介类型之间的内在联系。
广泛的应用场景:新模型将显著提升检索增强生成(RAG)、语义搜索、情感分析以及大规模数据聚类的性能。
谷歌在官方博客中举例称,在法律诉讼取证等复杂场景下,Gemini Embedding2能在数百万条跨媒体记录中快速定位关键证据,大幅提升了检索的精度与召回率。目前,该模型已通过 Gemini API 和 Vertex AI 提供公开预览。
对于开发者而言,这一更新意味着可以更轻松地构建处理复杂现实数据的 AI 应用,让机器不仅能“看”和“听”,更能理解不同信息背后的统一逻辑。


