Mistral AI CEO访韩会晤三星高层,双方探讨AI芯片供应链与技术合作,欧洲AI企业寻求稳定芯片供应以满足算力需求。
法国AI初创公司Mistral AI完成8.3亿美元债务融资,将用于在巴黎附近建设AI数据中心。该中心将部署44MW算力,配备13800块英伟达GB300 GPU,以支持AI应用发展。
欧洲AI公司Mistral AI完成8.3亿美元债务融资,将用于在巴黎近郊建设顶级AI数据中心。该中心计划部署超1.3万块英伟达GB300 GPU,以大幅提升算力。融资获七家国际银行支持,显示金融界对欧洲AI发展的信心。
欧洲AI初创公司Mistral AI获8.3亿美元融资,将全部投入算力建设,以挑战中美在通用人工智能领域的垄断地位。资金将用于采购1.38万片英伟达顶级芯片,强化算力底座,试图在全球AI竞赛中夺回话语权。
Devstral 2开源编码模型及Mistral Vibe CLI,高效解决软件工程任务
可同时使用ChatGPT、Gemini等多模型,节省3 - 4倍时间,提升200%效率
增强文本与视觉任务处理能力的开源模型。
Mistral OCR 是一款强大的文档理解 OCR 产品,能够以极高的准确性从 PDF 和图像中提取文本、图像、表格和方程式。
01-ai
-
输入tokens/百万
输出tokens/百万
4
上下文长度
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
mradermacher
这是 Manoghn/voicecraft-mistral-7b 模型的静态量化GGUF版本,基于Mistral-7B架构,专门用于内容生成和文本生成任务。该版本提供了多种量化级别,从2.8GB到14.6GB不等,用户可以根据硬件条件和性能需求选择合适的版本。
noctrex
这是一个基于Mistral架构的图像文本转文本量化模型,参数规模为24B,专门针对指令跟随任务进行了优化训练,支持多模态输入处理。
这是基于SicariusSicariiStuff/Hebrew_Nemo模型的量化版本,专门针对希伯来语优化的Mistral架构大语言模型,支持希伯来语和英语的文本生成和对话任务。
hasanbasbunar
Lodos-24B-Instruct-2510是基于Mistral-Small-3.2-24B-Instruct-2506微调的土耳其语大语言模型,使用TRL框架进行全监督微调,专门针对土耳其语指令遵循任务优化,支持长文本生成和复杂推理。
ExaltedSlayer
这是一个基于Mistral Small 3.2构建的24B参数高效推理模型,转换为MLX-MXFP4格式。模型具有增强的推理能力,支持多模态输入,拥有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上运行。
RedHatAI
这是unsloth/Mistral-Small-3.2-24B-Instruct-2506的量化版本,通过将权重和激活函数量化为FP4数据类型,减少了磁盘大小和GPU内存需求,同时支持vLLM推理。在多个任务上进行了评估以与未量化模型对比质量。
ce-lery
这是一个基于Mistral 300M架构的日语预训练语言模型,使用维基百科和cc100数据集进行训练,采用了SentencePiece分词器中的字节回退技术来抑制未知词生成。
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
这是 liushiliushi/ConfTuner-Ministral 模型的静态量化版本,适用于文本生成和置信度估计任务。该模型基于 Mistral 架构,经过微调以提供可信赖的AI输出,支持多种量化级别以满足不同硬件需求。
这是MistralAI Magistral Small 2509模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该版本在保持相对较好性能的同时,显著减少了模型的内存占用和计算资源需求,使其能够在各种硬件环境下运行。
macandchiz
这是mistralai/Mistral-7B-Instruct-v0.3的量化版本,提供多种量化级别选择,在文件大小和模型质量之间进行权衡。支持基于llama-cpp和gguf-my-repo使用。
grimjim
Magnolia-v3-medis-remix-12B-GGUF是基于mergekit技术合并的12B参数量化模型,以Mistral Nemo为主要组件,融合了医学微调作为噪声组件,适用于文本生成任务,采用Apache-2.0许可证。
maerong3
这是一个基于Mistral架构的24B参数大型语言模型,通过llama.cpp转换为GGUF格式。模型支持多语言交互,特别优化了指令跟随能力,适用于各种文本生成和理解任务。
Fentible
Cthulhu是一个基于Mistral Small v3.2和v3.1的大型模型融合项目,通过融合多个尖端微调模型创建的超强24B参数语言模型。它具有章鱼般的多面性特征,提供无审查的创造性文本生成能力,擅长散文创作、指令遵循和深奥知识表达。
Cthulhu 24B 1.1 GGUF 是一个基于 Mistral Small 系列模型融合的大型语言模型,融合了17个不同的模型组件,具有创意写作、无审查对话和丰富语言交互能力。该模型以克苏鲁神话为灵感,旨在提供超越单一模型能力的'超级融合'体验。
btbtyler09
Devstral-Small-2507-AWQ是基于mistralai/Devstral-Small-2507模型派生的量化版本,采用AutoAWQ技术进行4位量化,专为在vLLM推理引擎上高效运行而优化。
mistralai
魔主小型 1.1是基于魔主小型3.1构建的240亿参数高效推理模型,新增推理能力,支持多语言,采用Apache 2.0许可证,可在单张RTX 4090或32GB内存MacBook上本地部署运行。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
该项目构建了一个基于自然语言的WhatsApp消息发送与调度系统,通过客户端-服务器架构实现。服务器利用Mistral的LLM解析用户意图,并调用Twilio的API发送WhatsApp消息。
基于Mistral AI的OCR服务,支持本地文件和URL的图文识别
一个支持OpenAI和Mistral的MCP服务器实现,基于Vercel AI SDK开发。
基于Mistral Codestral API的MCP服务器,提供代码补全、错误修复和测试生成功能
Unichat MCP Server是一个支持通过MCP协议向OpenAI、MistralAI等多家AI供应商发送请求的Python服务器,提供代码审查、文档生成等预设提示功能。
一个基于React、Node.js、PostgreSQL和Mistral LLM的全栈智能医院预约管理系统,提供手动和LLM智能助手两种操作模式,支持医生、患者管理及预约功能。
一个将Mistral Vibe CLI包装为MCP子代理的服务器,允许通过Codex等工具运行和恢复Vibe任务,并提供成本监控和会话管理功能。
Lizeur是一个基于MCP协议的PDF内容提取服务器,利用Mistral AI的OCR技术将PDF转换为易读的markdown文本,支持智能缓存和快速集成。
Unichat MCP Server是一个TypeScript实现的多模型聊天协议服务器,支持通过MCP协议向OpenAI、MistralAI等AI供应商发送请求,提供代码审查、文档生成等预设提示功能。