多家科技巨头付费获取维基百科企业级数据访问权,微软、Meta、亚马逊及AI新秀Perplexity、Mistral AI均已加入Wikimedia Enterprise计划。该计划由维基媒体基金会于2021年推出,为大型商业公司提供定制化API接口,满足AI公司对维基百科海量数据的特定需求。
面对AI对流量和数据的冲击,维基媒体基金会正加速商业化布局,推出“维基媒体企业合作伙伴计划”,吸引亚马逊、Meta、微软、Mistral AI和Perplexity等科技巨头加入,探索AI时代的“知识订阅”模式。
Mistral AI推出Voxtral系列模型,整合文本与音频处理能力。该系列包括Voxtral-Mini-3B-2507和Voxtral-Small-24B-2507两款。前者为3亿参数模型,适合快速音频转录和基础多模态理解;后者拥有240亿参数,支持复杂音频文本智能和多语言处理,适用于企业级应用。两款模型均支持30至40分钟音频上下文处理。
Mistral AI发布新一代文档识别技术Mistral OCR3,在表格、扫描文档、复杂表格及手写识别方面表现突出,整体性能较上一代提升74%。该技术旨在高效准确提取各类文档中的文本和嵌入式图像,支持多格式处理,显著提升文档处理效率与精度。
Devstral 2开源编码模型及Mistral Vibe CLI,高效解决软件工程任务
可同时使用ChatGPT、Gemini等多模型,节省3 - 4倍时间,提升200%效率
增强文本与视觉任务处理能力的开源模型。
Mistral OCR 是一款强大的文档理解 OCR 产品,能够以极高的准确性从 PDF 和图像中提取文本、图像、表格和方程式。
01-ai
-
输入tokens/百万
输出tokens/百万
4
上下文长度
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
mradermacher
这是 Manoghn/voicecraft-mistral-7b 模型的静态量化GGUF版本,基于Mistral-7B架构,专门用于内容生成和文本生成任务。该版本提供了多种量化级别,从2.8GB到14.6GB不等,用户可以根据硬件条件和性能需求选择合适的版本。
noctrex
这是一个基于Mistral架构的图像文本转文本量化模型,参数规模为24B,专门针对指令跟随任务进行了优化训练,支持多模态输入处理。
这是基于SicariusSicariiStuff/Hebrew_Nemo模型的量化版本,专门针对希伯来语优化的Mistral架构大语言模型,支持希伯来语和英语的文本生成和对话任务。
hasanbasbunar
Lodos-24B-Instruct-2510是基于Mistral-Small-3.2-24B-Instruct-2506微调的土耳其语大语言模型,使用TRL框架进行全监督微调,专门针对土耳其语指令遵循任务优化,支持长文本生成和复杂推理。
ExaltedSlayer
这是一个基于Mistral Small 3.2构建的24B参数高效推理模型,转换为MLX-MXFP4格式。模型具有增强的推理能力,支持多模态输入,拥有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上运行。
RedHatAI
这是unsloth/Mistral-Small-3.2-24B-Instruct-2506的量化版本,通过将权重和激活函数量化为FP4数据类型,减少了磁盘大小和GPU内存需求,同时支持vLLM推理。在多个任务上进行了评估以与未量化模型对比质量。
ce-lery
这是一个基于Mistral 300M架构的日语预训练语言模型,使用维基百科和cc100数据集进行训练,采用了SentencePiece分词器中的字节回退技术来抑制未知词生成。
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
这是MistralAI Magistral Small 2509模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该版本在保持相对较好性能的同时,显著减少了模型的内存占用和计算资源需求,使其能够在各种硬件环境下运行。
macandchiz
这是mistralai/Mistral-7B-Instruct-v0.3的量化版本,提供多种量化级别选择,在文件大小和模型质量之间进行权衡。支持基于llama-cpp和gguf-my-repo使用。
grimjim
Magnolia-v3-medis-remix-12B-GGUF是基于mergekit技术合并的12B参数量化模型,以Mistral Nemo为主要组件,融合了医学微调作为噪声组件,适用于文本生成任务,采用Apache-2.0许可证。
maerong3
这是一个基于Mistral架构的24B参数大型语言模型,通过llama.cpp转换为GGUF格式。模型支持多语言交互,特别优化了指令跟随能力,适用于各种文本生成和理解任务。
Fentible
Cthulhu是一个基于Mistral Small v3.2和v3.1的大型模型融合项目,通过融合多个尖端微调模型创建的超强24B参数语言模型。它具有章鱼般的多面性特征,提供无审查的创造性文本生成能力,擅长散文创作、指令遵循和深奥知识表达。
Cthulhu 24B 1.1 GGUF 是一个基于 Mistral Small 系列模型融合的大型语言模型,融合了17个不同的模型组件,具有创意写作、无审查对话和丰富语言交互能力。该模型以克苏鲁神话为灵感,旨在提供超越单一模型能力的'超级融合'体验。
btbtyler09
Devstral-Small-2507-AWQ是基于mistralai/Devstral-Small-2507模型派生的量化版本,采用AutoAWQ技术进行4位量化,专为在vLLM推理引擎上高效运行而优化。
mistralai
魔主小型 1.1是基于魔主小型3.1构建的240亿参数高效推理模型,新增推理能力,支持多语言,采用Apache 2.0许可证,可在单张RTX 4090或32GB内存MacBook上本地部署运行。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
该项目构建了一个基于自然语言的WhatsApp消息发送与调度系统,通过客户端-服务器架构实现。服务器利用Mistral的LLM解析用户意图,并调用Twilio的API发送WhatsApp消息。
基于Mistral AI的OCR服务,支持本地文件和URL的图文识别
一个支持OpenAI和Mistral的MCP服务器实现,基于Vercel AI SDK开发。
基于Mistral Codestral API的MCP服务器,提供代码补全、错误修复和测试生成功能
Unichat MCP Server是一个支持通过MCP协议向OpenAI、MistralAI等多家AI供应商发送请求的Python服务器,提供代码审查、文档生成等预设提示功能。
一个基于React、Node.js、PostgreSQL和Mistral LLM的全栈智能医院预约管理系统,提供手动和LLM智能助手两种操作模式,支持医生、患者管理及预约功能。
Lizeur是一个基于MCP协议的PDF内容提取服务器,利用Mistral AI的OCR技术将PDF转换为易读的markdown文本,支持智能缓存和快速集成。
Unichat MCP Server是一个TypeScript实现的多模型聊天协议服务器,支持通过MCP协议向OpenAI、MistralAI等AI供应商发送请求,提供代码审查、文档生成等预设提示功能。