Mistral AI CEO訪韓會晤三星高層,雙方探討AI芯片供應鏈與技術合作,歐洲AI企業尋求穩定芯片供應以滿足算力需求。
法國AI初創公司Mistral AI完成8.3億美元債務融資,將用於在巴黎附近建設AI數據中心。該中心將部署44MW算力,配備13800塊英偉達GB300 GPU,以支持AI應用發展。
歐洲AI公司Mistral AI完成8.3億美元債務融資,將用於在巴黎近郊建設頂級AI數據中心。該中心計劃部署超1.3萬塊英偉達GB300 GPU,以大幅提升算力。融資獲七家國際銀行支持,顯示金融界對歐洲AI發展的信心。
歐洲AI初創公司Mistral AI獲8.3億美元融資,將全部投入算力建設,以挑戰中美在通用人工智能領域的壟斷地位。資金將用於採購1.38萬片英偉達頂級芯片,強化算力底座,試圖在全球AI競賽中奪回話語權。
Devstral 2開源編碼模型及Mistral Vibe CLI,高效解決軟件工程任務
可同時使用ChatGPT、Gemini等多模型,節省3 - 4倍時間,提升200%效率
增強文本與視覺任務處理能力的開源模型。
Mistral OCR 是一款強大的文檔理解 OCR 產品,能夠以極高的準確性從 PDF 和圖像中提取文本、圖像、表格和方程式。
01-ai
-
輸入tokens/百萬
輸出tokens/百萬
4
上下文長度
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基於原始模型開發的文本生成模型,專門針對角色扮演和創意寫作場景進行了優化。該模型從Mistral-Nemo-Base-12B微調而來,使用了自定義的'Actors'數據集進行訓練,生成的文本更加自然,避免了常見的'AI語言'特徵。
mradermacher
這是 Manoghn/voicecraft-mistral-7b 模型的靜態量化GGUF版本,基於Mistral-7B架構,專門用於內容生成和文本生成任務。該版本提供了多種量化級別,從2.8GB到14.6GB不等,用戶可以根據硬件條件和性能需求選擇合適的版本。
noctrex
這是一個基於Mistral架構的圖像文本轉文本量化模型,參數規模為24B,專門針對指令跟隨任務進行了優化訓練,支持多模態輸入處理。
這是基於SicariusSicariiStuff/Hebrew_Nemo模型的量化版本,專門針對希伯來語優化的Mistral架構大語言模型,支持希伯來語和英語的文本生成和對話任務。
hasanbasbunar
Lodos-24B-Instruct-2510是基於Mistral-Small-3.2-24B-Instruct-2506微調的土耳其語大語言模型,使用TRL框架進行全監督微調,專門針對土耳其語指令遵循任務優化,支持長文本生成和複雜推理。
ExaltedSlayer
這是一個基於Mistral Small 3.2構建的24B參數高效推理模型,轉換為MLX-MXFP4格式。模型具有增強的推理能力,支持多模態輸入,擁有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上運行。
RedHatAI
這是unsloth/Mistral-Small-3.2-24B-Instruct-2506的量化版本,通過將權重和激活函數量化為FP4數據類型,減少了磁盤大小和GPU內存需求,同時支持vLLM推理。在多個任務上進行了評估以與未量化模型對比質量。
ce-lery
這是一個基於Mistral 300M架構的日語預訓練語言模型,使用維基百科和cc100數據集進行訓練,採用了SentencePiece分詞器中的字節回退技術來抑制未知詞生成。
ConfTuner-Ministral是基於Mistral架構的量化大語言模型,專門針對可信賴AI場景進行微調,支持文本生成和置信度估計功能。該模型提供了多種量化版本,適用於不同資源約束環境。
這是 liushiliushi/ConfTuner-Ministral 模型的靜態量化版本,適用於文本生成和置信度估計任務。該模型基於 Mistral 架構,經過微調以提供可信賴的AI輸出,支持多種量化級別以滿足不同硬件需求。
bartowski
這是MistralAI Magistral Small 2509模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該版本在保持相對較好性能的同時,顯著減少了模型的內存佔用和計算資源需求,使其能夠在各種硬件環境下運行。
macandchiz
這是mistralai/Mistral-7B-Instruct-v0.3的量化版本,提供多種量化級別選擇,在文件大小和模型質量之間進行權衡。支持基於llama-cpp和gguf-my-repo使用。
grimjim
Magnolia-v3-medis-remix-12B-GGUF是基於mergekit技術合併的12B參數量化模型,以Mistral Nemo為主要組件,融合了醫學微調作為噪聲組件,適用於文本生成任務,採用Apache-2.0許可證。
maerong3
這是一個基於Mistral架構的24B參數大型語言模型,通過llama.cpp轉換為GGUF格式。模型支持多語言交互,特別優化了指令跟隨能力,適用於各種文本生成和理解任務。
Fentible
Cthulhu是一個基於Mistral Small v3.2和v3.1的大型模型融合項目,通過融合多個尖端微調模型創建的超強24B參數語言模型。它具有章魚般的多面性特徵,提供無審查的創造性文本生成能力,擅長散文創作、指令遵循和深奧知識表達。
Cthulhu 24B 1.1 GGUF 是一個基於 Mistral Small 系列模型融合的大型語言模型,融合了17個不同的模型組件,具有創意寫作、無審查對話和豐富語言交互能力。該模型以克蘇魯神話為靈感,旨在提供超越單一模型能力的'超級融合'體驗。
btbtyler09
Devstral-Small-2507-AWQ是基於mistralai/Devstral-Small-2507模型派生的量化版本,採用AutoAWQ技術進行4位量化,專為在vLLM推理引擎上高效運行而優化。
mistralai
魔主小型 1.1是基於魔主小型3.1構建的240億參數高效推理模型,新增推理能力,支持多語言,採用Apache 2.0許可證,可在單張RTX 4090或32GB內存MacBook上本地部署運行。
ByteDance-Seed
Seed-X-RM-7B是Seed-X系列中的獎勵模型,專門用於評估翻譯質量。該模型基於70億參數的Mistral架構,能夠為多語言翻譯分配獎勵分數,支持25種語言間的翻譯質量評估。
lmstudio-community
基於Mistral架構的小型多語言視覺語言模型,專為圖像文本轉換任務優化,支持20多種語言,經過MLX量化針對蘋果芯片進行了性能優化。
該項目構建了一個基於自然語言的WhatsApp消息發送與調度系統,通過客戶端-服務器架構實現。服務器利用Mistral的LLM解析用戶意圖,並調用Twilio的API發送WhatsApp消息。
基於Mistral Codestral API的MCP服務器,提供代碼補全、錯誤修復和測試生成功能
LOTUS-MCP是一個開源的模型協調協議,整合Mistral和Gemini兩大AI模型,提供統一接口、上下文共享和工具集成,實現智能路由和成本優化。
基於Mistral AI的OCR服務,支持本地文件和URL的圖文識別
一個支持OpenAI和Mistral的MCP服務器實現,基於Vercel AI SDK開發。
Unichat MCP Server是一個TypeScript實現的多模型聊天協議服務器,支持通過MCP協議向OpenAI、MistralAI等AI供應商發送請求,提供代碼審查、文檔生成等預設提示功能。
Lizeur是一個基於MCP協議的PDF內容提取服務器,利用Mistral AI的OCR技術將PDF轉換為易讀的markdown文本,支持智能緩存和快速集成。
一個基於React、Node.js、PostgreSQL和Mistral LLM的全棧智能醫院預約管理系統,提供手動和LLM智能助手兩種操作模式,支持醫生、患者管理及預約功能。
一個將Mistral Vibe CLI包裝為MCP子代理的服務器,允許通過Codex等工具運行和恢復Vibe任務,並提供成本監控和會話管理功能。
Unichat MCP Server是一個支持通過MCP協議向OpenAI、MistralAI等多家AI供應商發送請求的Python服務器,提供代碼審查、文檔生成等預設提示功能。