Mistral AI发布新一代文档识别技术Mistral OCR3,在表格、扫描文档、复杂表格及手写识别方面表现突出,整体性能较上一代提升74%。该技术旨在高效准确提取各类文档中的文本和嵌入式图像,支持多格式处理,显著提升文档处理效率与精度。
Apache Doris 4.0 正式发布,聚焦AI驱动、搜索增强和离线提效三大方向。新增向量索引和AI函数等特性,提升数据处理效率与用户体验。通过深度集成向量索引技术,高效处理文本嵌入等高维向量数据,支持用户在同一平台使用SQL进行结构化分析。
视觉检索增强生成(Vision-RAG)与文本检索增强生成(Text-RAG)在企业信息检索中的对比研究显示,Text-RAG需先将PDF转为文本再嵌入索引,但OCR技术常导致转换不准确,影响检索效率。Vision-RAG则直接处理视觉信息,可能更高效。研究揭示了两种方法在应对海量文档时的优缺点,为企业优化搜索策略提供参考。
谷歌推出开源嵌入模型EmbeddingGemma,专为移动设备设计。该模型拥有308百万参数,在MTEB基准测试中被评为500M以下最佳多语言文本嵌入模型。支持检索增强生成和语义搜索功能,无需联网即可在手机上运行,性能优越。
先进的多模态嵌入和重排名模型,支持文本、图像和视频。
Gemini Embedding 是一种先进的文本嵌入模型,通过 Gemini API 提供强大的语言理解能力。
多语言多模态嵌入模型,用于文本和图像检索。
快速的本地矢量推理解决方案
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
Baidu
128
$6
$24
256
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
TomoroAI
TomoroAI/tomoro-colqwen3-embed-4b是一款先进的ColPali风格多模态嵌入模型,能够将文本查询、视觉文档(如图像、PDF)或短视频映射为对齐的多向量嵌入。该模型结合了Qwen3-VL-4B-Instruct和Qwen3-Embedding-4B的优势,在ViDoRe基准测试中表现出色,同时显著减少了嵌入占用空间。
sd2-community
Stable Diffusion v2-1-unclip是基于Stable Diffusion 2.1微调的扩散模型,能够接受文本提示和CLIP图像嵌入,用于创建图像变体或与文本到图像的CLIP先验结合使用。
Tarka-AIR
Tarka-Embedding-350M-V1是一个拥有3.5亿参数的文本嵌入模型,能够生成1024维的密集文本表示。该模型针对语义相似性、搜索和检索增强生成(RAG)等下游应用进行了优化,支持多种语言并具有长上下文处理能力。
AbstractPhil
MM-VAE Lyra是一个专门用于文本嵌入转换的多模态变分自编码器,采用几何融合技术。它结合了CLIP-L和T5-base模型,能够有效处理文本嵌入的编码和解码任务,为多模态数据处理提供创新解决方案。
mradermacher
UME-R1-7B的静态量化版本,支持句子相似度、嵌入、零样本图像分类、视频文本到文本等多任务。提供多种量化类型以满足不同需求,从轻量级Q2_K到高质量Q8_0版本。
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
nvidia
Llama Nemotron Embedding 1B模型是NVIDIA开发的专为多语言和跨语言文本问答检索优化的嵌入模型,支持26种语言,能够处理长达8192个标记的文档,并可通过动态嵌入大小大幅减少数据存储占用。
redis
这是一个由Redis发布的、针对语义缓存任务优化的双编码器句子嵌入模型。它基于sentence-transformers/all-MiniLM-L6-v2微调,可将文本映射到384维向量空间,专门用于提升LangCache语义缓存系统的查询匹配精度。
codefuse-ai
F2LLM是一个基于Qwen3-0.6B微调的开源文本嵌入模型,通过在600万高质量查询-文档对上进行单阶段训练,实现了与当前最优模型相匹配的嵌入性能。该模型专门用于特征提取任务,支持英文文本处理。
MagicalAlchemist
BGE-M3是由BAAI开发的多功能文本嵌入模型,支持多语言、多粒度、多功能的文本表示学习,能够同时处理稠密检索、稀疏检索和多向量检索等多种检索模式。
mlx-community
这是一个转换为MLX格式的文本嵌入模型,基于Google的EmbeddingGemma-300m模型转换而来,专门用于句子相似度计算和文本嵌入任务。模型采用BF16精度,适用于苹果芯片设备上的高效推理。
EmbeddingGemma-300m-8bit是基于sentence-transformers库实现的句子相似度模型,支持以MLX格式运行,专门用于计算句子嵌入和相似度。该模型从原始模型转换而来,提供高效的文本特征提取能力。
EmbeddingGemma 300M 4bit是Google开发的轻量级文本嵌入模型,专门针对MLX框架优化。该模型能够将文本转换为高质量的向量表示,适用于各种自然语言处理任务,特别是句子相似度计算和特征提取。
ggml-org
embeddinggemma-300M是一个经过量化优化的轻量级文本嵌入模型,基于Google的embeddinggemma架构,采用QAT(量化感知训练)和Q4_0量化技术,参数量为300M。该模型专门用于生成高质量的文本嵌入向量,支持句子相似度计算和特征提取等任务。
second-state
基于jinaai/jina-embeddings-v3模型进行量化处理的嵌入模型,专为LlamaEdge设计,提供高效的文本嵌入能力,支持多种量化版本以满足不同场景需求
jinaai
Jina Code Embeddings 是一款专为代码检索设计的嵌入模型,基于Qwen2.5-Coder-0.5B构建,支持15种以上编程语言,适用于文本到代码、代码到代码、代码到文本、代码到补全等多种代码检索任务以及技术问答。
SamilPwC-AXNode-GenAI
PwC-Embedding-expr 是基于 multilingual-e5-large-instruct 嵌入模型训练的韩语优化版本,通过精心设计的增强方法和微调策略提升在韩语语义文本相似度任务上的性能。
MongoDB
mdbr-leaf-ir 是 MongoDB Research 开发的专为信息检索任务设计的高性能紧凑型文本嵌入模型,特别适用于 RAG 管道的检索阶段。该模型采用知识蒸馏技术,支持非对称架构、MRL 截断和向量量化,在 BEIR 基准测试中表现出色。
sangambhamare
基于SBERT架构的马拉地语句子嵌入模型,可将文本映射到768维向量空间
IAMJB
RadEvalModernBERT是一个专门针对医学放射学领域优化的BERT模型,基于现代临床放射学报告进行训练,能够有效处理医学文本嵌入提取和相似度计算任务。
一个基于MongoDB Atlas向量搜索和Voyage AI嵌入技术的文档检索系统,支持语义搜索和文本匹配,包含文档分块、嵌入生成和存储功能。
mcp-rag-server是一个基于Model Context Protocol (MCP)的服务,支持检索增强生成(RAG),能够索引文档并为大型语言模型提供相关上下文。
rag-mcp是一个过度设计的检索增强生成系统,通过Python服务器提供多种文本搜索模式(语义搜索、问答搜索、风格搜索),使用PostgreSQL和pgvector存储文本嵌入向量,支持与AI代理交互,架构复杂但可扩展。
该项目提供了一个基于Qdrant的开发容器环境,用于文件嵌入和向量相似性搜索,支持文本、Markdown和PDF文件的自动索引与检索。
一个基于Qdrant向量数据库的机器控制协议(MCP)服务器,支持文本存储、语义搜索及FastEmbed嵌入模型集成。
一个强大的Parquet文件处理MCP服务器,提供文本嵌入生成、文件分析、DuckDB/PostgreSQL转换及Markdown处理功能
Brain Server是一个基于MCP协议的知识嵌入与向量搜索服务,提供高质量文本向量化、语义搜索和知识管理功能,支持多种嵌入模型和Docker部署。
一个基于TypeScript的MCP服务器,用于与Vectra知识库交互,提供创建集合、嵌入文本/文件、查询知识库等功能。
一个基于MCP框架的Qdrant向量数据库服务,提供文本向量化存储与相似性搜索功能。