
微新创想:谷歌正式推出全新 Gemini Embedding2 模型
谷歌近日宣布推出全新 Gemini Embedding2 模型。作为谷歌首个原生多模态嵌入模型 它突破了传统模型仅支持单一数据类型的限制 能够将文本 图像 视频 音频和文档同时映射到同一个数学向量空间中 实现跨媒体的深度理解
与专注于内容创作的 Gemini3 等生成式模型不同 嵌入模型的核心职能是“理解” 它通过将复杂数据转化为机器可读的向量 帮助系统识别语义关系 在搜索精度和上下文关联上远超传统的关键词检索
Gemini Embedding2 技术特性与突破 多模态支持全面 该模型不仅支持文本 还可以直接处理 PNG/JPEG 图像 最长 120 秒的 MP4/MOV 视频 原生音频数据以及最多 6 页的 PDF 文档

语言理解能力全球化 支持在全球 100 种语言中精准识别用户的语义意图 无论是中文 英文 还是其他小语种 都能实现高效准确的语义解析
多维度联合分析能力突出 模型可以在单次请求中同时接收“图像 + 文本”等组合输入 从而深度分析不同媒介类型之间的内在联系 这种能力使得跨模态的数据处理更加高效和智能
应用场景广泛多样 新模型将显著提升检索增强生成(RAG) 语义搜索 情感分析以及大规模数据聚类的性能 在法律诉讼取证等复杂场景下 Gemini Embedding2 能在数百万条跨媒体记录中快速定位关键证据 大幅提升了检索的精度与召回率
目前 该模型已通过 Gemini API 和 Vertex AI 提供公开预览 对于开发者而言 这一更新意味着可以更轻松地构建处理复杂现实数据的 AI 应用 让机器不仅能“看”和“听” 更能理解不同信息背后的统一逻辑
