多家科技巨頭付費獲取維基百科企業級數據訪問權,微軟、Meta、亞馬遜及AI新秀Perplexity、Mistral AI均已加入Wikimedia Enterprise計劃。該計劃由維基媒體基金會於2021年推出,爲大型商業公司提供定製化API接口,滿足AI公司對維基百科海量數據的特定需求。
面對AI對流量和數據的衝擊,維基媒體基金會正加速商業化佈局,推出“維基媒體企業合作伙伴計劃”,吸引亞馬遜、Meta、微軟、Mistral AI和Perplexity等科技巨頭加入,探索AI時代的“知識訂閱”模式。
Mistral AI推出Voxtral系列模型,整合文本與音頻處理能力。該系列包括Voxtral-Mini-3B-2507和Voxtral-Small-24B-2507兩款。前者爲3億參數模型,適合快速音頻轉錄和基礎多模態理解;後者擁有240億參數,支持複雜音頻文本智能和多語言處理,適用於企業級應用。兩款模型均支持30至40分鐘音頻上下文處理。
Mistral AI發佈新一代文檔識別技術Mistral OCR3,在表格、掃描文檔、複雜表格及手寫識別方面表現突出,整體性能較上一代提升74%。該技術旨在高效準確提取各類文檔中的文本和嵌入式圖像,支持多格式處理,顯著提升文檔處理效率與精度。
Devstral 2開源編碼模型及Mistral Vibe CLI,高效解決軟件工程任務
可同時使用ChatGPT、Gemini等多模型,節省3 - 4倍時間,提升200%效率
增強文本與視覺任務處理能力的開源模型。
Mistral OCR 是一款強大的文檔理解 OCR 產品,能夠以極高的準確性從 PDF 和圖像中提取文本、圖像、表格和方程式。
01-ai
-
輸入tokens/百萬
輸出tokens/百萬
4
上下文長度
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基於原始模型開發的文本生成模型,專門針對角色扮演和創意寫作場景進行了優化。該模型從Mistral-Nemo-Base-12B微調而來,使用了自定義的'Actors'數據集進行訓練,生成的文本更加自然,避免了常見的'AI語言'特徵。
mradermacher
這是 Manoghn/voicecraft-mistral-7b 模型的靜態量化GGUF版本,基於Mistral-7B架構,專門用於內容生成和文本生成任務。該版本提供了多種量化級別,從2.8GB到14.6GB不等,用戶可以根據硬件條件和性能需求選擇合適的版本。
noctrex
這是一個基於Mistral架構的圖像文本轉文本量化模型,參數規模為24B,專門針對指令跟隨任務進行了優化訓練,支持多模態輸入處理。
這是基於SicariusSicariiStuff/Hebrew_Nemo模型的量化版本,專門針對希伯來語優化的Mistral架構大語言模型,支持希伯來語和英語的文本生成和對話任務。
hasanbasbunar
Lodos-24B-Instruct-2510是基於Mistral-Small-3.2-24B-Instruct-2506微調的土耳其語大語言模型,使用TRL框架進行全監督微調,專門針對土耳其語指令遵循任務優化,支持長文本生成和複雜推理。
ExaltedSlayer
這是一個基於Mistral Small 3.2構建的24B參數高效推理模型,轉換為MLX-MXFP4格式。模型具有增強的推理能力,支持多模態輸入,擁有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上運行。
RedHatAI
這是unsloth/Mistral-Small-3.2-24B-Instruct-2506的量化版本,通過將權重和激活函數量化為FP4數據類型,減少了磁盤大小和GPU內存需求,同時支持vLLM推理。在多個任務上進行了評估以與未量化模型對比質量。
ce-lery
這是一個基於Mistral 300M架構的日語預訓練語言模型,使用維基百科和cc100數據集進行訓練,採用了SentencePiece分詞器中的字節回退技術來抑制未知詞生成。
ConfTuner-Ministral是基於Mistral架構的量化大語言模型,專門針對可信賴AI場景進行微調,支持文本生成和置信度估計功能。該模型提供了多種量化版本,適用於不同資源約束環境。
這是 liushiliushi/ConfTuner-Ministral 模型的靜態量化版本,適用於文本生成和置信度估計任務。該模型基於 Mistral 架構,經過微調以提供可信賴的AI輸出,支持多種量化級別以滿足不同硬件需求。
bartowski
這是MistralAI Magistral Small 2509模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該版本在保持相對較好性能的同時,顯著減少了模型的內存佔用和計算資源需求,使其能夠在各種硬件環境下運行。
macandchiz
這是mistralai/Mistral-7B-Instruct-v0.3的量化版本,提供多種量化級別選擇,在文件大小和模型質量之間進行權衡。支持基於llama-cpp和gguf-my-repo使用。
grimjim
Magnolia-v3-medis-remix-12B-GGUF是基於mergekit技術合併的12B參數量化模型,以Mistral Nemo為主要組件,融合了醫學微調作為噪聲組件,適用於文本生成任務,採用Apache-2.0許可證。
maerong3
這是一個基於Mistral架構的24B參數大型語言模型,通過llama.cpp轉換為GGUF格式。模型支持多語言交互,特別優化了指令跟隨能力,適用於各種文本生成和理解任務。
Fentible
Cthulhu是一個基於Mistral Small v3.2和v3.1的大型模型融合項目,通過融合多個尖端微調模型創建的超強24B參數語言模型。它具有章魚般的多面性特徵,提供無審查的創造性文本生成能力,擅長散文創作、指令遵循和深奧知識表達。
Cthulhu 24B 1.1 GGUF 是一個基於 Mistral Small 系列模型融合的大型語言模型,融合了17個不同的模型組件,具有創意寫作、無審查對話和豐富語言交互能力。該模型以克蘇魯神話為靈感,旨在提供超越單一模型能力的'超級融合'體驗。
btbtyler09
Devstral-Small-2507-AWQ是基於mistralai/Devstral-Small-2507模型派生的量化版本,採用AutoAWQ技術進行4位量化,專為在vLLM推理引擎上高效運行而優化。
mistralai
魔主小型 1.1是基於魔主小型3.1構建的240億參數高效推理模型,新增推理能力,支持多語言,採用Apache 2.0許可證,可在單張RTX 4090或32GB內存MacBook上本地部署運行。
ByteDance-Seed
Seed-X-RM-7B是Seed-X系列中的獎勵模型,專門用於評估翻譯質量。該模型基於70億參數的Mistral架構,能夠為多語言翻譯分配獎勵分數,支持25種語言間的翻譯質量評估。
lmstudio-community
基於Mistral架構的小型多語言視覺語言模型,專為圖像文本轉換任務優化,支持20多種語言,經過MLX量化針對蘋果芯片進行了性能優化。
基於Mistral Codestral API的MCP服務器,提供代碼補全、錯誤修復和測試生成功能
該項目構建了一個基於自然語言的WhatsApp消息發送與調度系統,通過客戶端-服務器架構實現。服務器利用Mistral的LLM解析用戶意圖,並調用Twilio的API發送WhatsApp消息。
LOTUS-MCP是一個開源的模型協調協議,整合Mistral和Gemini兩大AI模型,提供統一接口、上下文共享和工具集成,實現智能路由和成本優化。
基於Mistral AI的OCR服務,支持本地文件和URL的圖文識別
一個支持OpenAI和Mistral的MCP服務器實現,基於Vercel AI SDK開發。
Lizeur是一個基於MCP協議的PDF內容提取服務器,利用Mistral AI的OCR技術將PDF轉換為易讀的markdown文本,支持智能緩存和快速集成。
Unichat MCP Server是一個TypeScript實現的多模型聊天協議服務器,支持通過MCP協議向OpenAI、MistralAI等AI供應商發送請求,提供代碼審查、文檔生成等預設提示功能。
一個基於React、Node.js、PostgreSQL和Mistral LLM的全棧智能醫院預約管理系統,提供手動和LLM智能助手兩種操作模式,支持醫生、患者管理及預約功能。
Unichat MCP Server是一個支持通過MCP協議向OpenAI、MistralAI等多家AI供應商發送請求的Python服務器,提供代碼審查、文檔生成等預設提示功能。