Anthropic即將發佈中端模型Claude Sonnet5,主打高性價比,旨在以中端價格提供旗艦性能,可能重塑大型語言模型市場格局。
Carbon Robotics推出“大型植物模型”AI,作爲激光除草機器人LaserWeeder的智能核心。該模型基於15個國家、100多個農場超1.5億張高質量圖像訓練,具備深度植物結構理解能力,顯著提升農田除草效率。
谷歌CEO承認對AI系統運作機制不完全掌控,揭示AI黑箱謎團。大型語言模型通過海量數據訓練展現出“涌現行爲”,如谷歌PaLM模型僅少量數據即可處理孟加拉語翻譯,體現AI從訓練到“自學”的躍遷。
維基百科母公司Wikimedia基金會與亞馬遜、Meta及Perplexity達成戰略合作,通過付費接口提供高質量數據,用於訓練大型語言模型,確保數據真實性,替代傳統網絡爬蟲模式。
Fogsight 是一款由大型語言模型驅動的動畫引擎。
提供強大的大型語言模型和文檔處理引擎,轉變工作流程並賦能領先企業。
一個通用框架,用於在測試時調節大型推理模型的思維進度。
Seed-Coder 是一個開源的 8B 代碼大型語言模型系列。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Bytedance
$1.2
$3.6
4
Trilogix1
Fara-7B是微軟專門為計算機使用場景設計的高效小型語言模型,參數僅70億,在網頁操作等高級用戶任務中表現出色,能與更大型的代理系統競爭。
mlx-community
本模型是基於allenai/Olmo-3-7B-Instruct轉換的8位量化版本,專門為Apple MLX框架優化。它是一個70億參數的大型語言模型,支持指令跟隨和對話任務。
DevQuasar
這是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在為大眾提供免費的知識獲取途徑。該模型是一個大型語言模型,專注於文本生成任務。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions訓練的日本大型視覺語言模型,基於Sarashina2.2-3B-Instruct和SigLIP圖像編碼器構建,具備強大的圖像到文本轉換能力,支持日語和英語的多模態處理。
本項目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力於讓知識為大眾所用。這是一個1720億參數的大型語言模型,經過優化和量化處理,旨在降低部署成本和提高推理效率。
bartowski
這是Precog-123B-v1模型的llama.cpp量化版本,提供了多種量化類型以滿足不同硬件配置和使用場景的需求。該模型是一個擁有1230億參數的大型語言模型,經過優化後可在各種硬件上高效運行。
noctrex
Aquif-3.5-Max-42B-A3B是一個420億參數的大型語言模型,經過MXFP4_MOE量化處理,在保持高質量文本生成能力的同時優化了推理效率。該模型基於先進的混合專家架構,適用於多種自然語言處理任務。
inferencerlabs
Qwen3-Coder-480B-A35B-Instruct是一個4800億參數的大型代碼生成模型,支持8.5bit量化,基於MLX框架優化。該模型專門針對代碼生成任務設計,在配備足夠內存的設備上能夠高效運行。
MiniMax-M2-5bit 是基於 MiniMaxAI/MiniMax-M2 模型轉換而來的 5 位量化版本,專為 MLX 框架優化。該模型是一個大型語言模型,支持文本生成任務,採用 MIT 許可證發佈。
GatorBarbarian
TRELLIS Text XL是一個大型3D生成模型,是TRELLIS的文本條件版本,模型大小為XL。該模型基於論文《Structured 3D Latents for Scalable and Versatile 3D Generation》提出,能夠根據文本描述生成高質量的3D內容。
nightmedia
這是Qwen3-Next-80B-A3B-Instruct模型的MLX格式轉換版本,專為在Apple Silicon設備上高效運行而優化。該模型是一個800億參數的大型語言模型,支持文本生成任務,具有強大的對話和推理能力。
nineninesix
KaniTTS是一款專為即時對話式AI應用優化的高速、高保真文本轉語音模型,採用兩階段管道結合大型語言模型和高效音頻編解碼器,實現卓越的速度和音頻質量。該模型支持西班牙語,具有4億參數,採樣率為22kHz。
lefromage
這是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。該模型是一個800億參數的大型語言模型,採用Apache 2.0許可證,支持文本生成任務。GGUF格式便於在本地設備上部署和運行。
lightonai
LightOnOCR-1B-1025是一款緊湊的端到端視覺語言模型,專門用於光學字符識別和文檔理解。它在同權重級別中實現了最先進的準確率,同時比大型通用視覺語言模型更快、成本更低。
這是一個72B參數的大型語言模型量化版本,使用llama.cpp的imatrix技術進行優化量化處理,提供了多種量化級別以適應不同硬件條件,支持在LM Studio和llama.cpp等環境中運行。
vito95311
這是Qwen3-Omni 31.7B參數模型的專業量化版本,採用先進的INT8+FP16混合精度量化技術,內存使用減少50%以上,支持智能GPU/CPU混合推理,讓大型多模態模型能夠在消費級硬件上高效運行。
lmms-lab
LLaVA-OneVision-1.5 是一系列完全開源的大型多模態模型,通過在原生分辨率圖像上進行訓練,以較低的成本實現了先進的性能。該模型在多個多模態基準測試中展現出卓越性能,超越了Qwen2.5-VL等競爭對手。
這是 Tesslate/UIGEN-FX-4B-Preview 模型的量化版本,致力於通過量化技術讓大型語言模型更易於部署和使用,實現'讓知識為每個人所用'的理念。
stanford-oval
CHURRO是一個30億參數的開放權重視覺語言模型,專門用於歷史文檔轉錄。它能夠識別跨越22個世紀和46個語言集群的手寫和印刷文本,包括歷史語言和已消亡語言,在顯著降低成本的條件下實現了比大型商業模型更高的準確率。
quelmap
Lightning-4b 是一款專為本地設備數據分析任務設計和訓練的語言模型,可在配備16GB內存的筆記本電腦上流暢運行,無需將數據發送給大型語言模型提供商,確保數據隱私和安全。
Supabase MCP Server是一個連接Supabase項目與AI助手的工具,通過Model Context Protocol(MCP)標準化大型語言模型(LLMs)與外部服務的交互,實現數據庫管理、配置獲取和數據查詢等功能。
LLM Context是一個幫助開發者快速將代碼/文本項目內容注入大型語言模型聊天界面的工具,支持智能文件選擇和多種集成方式。
Jinni是一個高效為大型語言模型提供項目上下文的工具,通過整合相關文件及其元數據,克服逐個文件讀取的限制。
MCPEngine是一個生產級的Model Context Protocol (MCP)實現,為大型語言模型(LLM)提供標準化接口,支持OAuth認證、資源管理、工具調用等功能,旨在成為'LLM界的REST'框架。
WireMCP是一個為大型語言模型(LLM)提供即時網絡流量分析能力的MCP服務器,通過Wireshark工具捕獲和處理網絡數據,支持威脅檢測、網絡診斷和異常分析。
一個基於Swift實現的知識圖譜記憶服務器,為大型語言模型提供持久化記憶功能
Rails MCP Server是一個基於Ruby實現的Model Context Protocol服務器,為Rails項目提供與大型語言模型交互的標準接口。
WireMCP是一個為大型語言模型(LLM)提供即時網絡流量分析能力的MCP服務器,通過集成Wireshark工具實現數據捕獲、威脅檢測和網絡診斷。
MCP2Lambda是一個將AWS Lambda函數作為大型語言模型(LLM)工具運行的MCP協議服務器,無需修改代碼即可讓AI模型調用Lambda函數訪問私有資源和AWS服務。
MCP2Lambda是一個MCP服務器,允許將AWS Lambda函數作為大型語言模型(LLM)的工具使用,無需修改代碼。它通過Model Context Protocol (MCP)在AI模型和Lambda函數之間建立橋樑,使模型能夠訪問私有資源和執行自定義操作。
Alpaca MCP服務器是一個實現Alpaca交易API的模型上下文協議(MCP)服務,允許大型語言模型通過自然語言與Alpaca交易系統交互,支持股票/期權交易、投資組合管理和即時市場數據獲取。
Kolada MCP Server是一個連接大型語言模型與瑞典Kolada統計數據庫的智能中間件,提供語義搜索、KPI分析、多年度比較等功能,簡化公共部門數據的查詢與解讀。
TokenScope是一個面向大型語言模型的令牌感知目錄探索工具,提供智能目錄結構分析、文件內容令牌感知提取、令牌使用統計和綜合報告生成功能。
Deep Research MCP 是一個基於Model Context Protocol (MCP) 的服務器項目,旨在通過Tavily的搜索和爬取API進行全面的網絡研究,並將數據整合為結構化的Markdown文檔,以支持大型語言模型(LLM)的高質量內容生成。
Astra DB MCP服務器是一個為大型語言模型(LLM)提供與Astra數據庫交互能力的服務,擴展了LLM作為代理與外部系統交互的功能。
PlayFab MCP Server是一箇中間件,使大型語言模型能夠直接與PlayFab服務交互,實現數據查詢和管理功能。
APISIX MCP服務器是一個橋接大型語言模型與APISIX Admin API的工具,支持通過自然語言交互管理APISIX資源。
Model Context Protocol (MCP) 是Anthropic發佈的開源協議,旨在解決大型語言模型(LLM)與外部數據源和系統連接的標準化問題。它通過提供結構化框架,使模型能夠集成和利用外部上下文,從而擴展其能力並提高響應準確性。MCP支持知識擴展、外部工具調用和預寫提示等功能。
Netskope NPA MCP Server是一個通過大型語言模型管理Netskope網絡私有訪問基礎設施的協議服務器,提供50多種工具進行配置管理。
WebMCP是一個允許網站支持客戶端LLM(大型語言模型)的項目,通過本地WebSocket服務器實現網站與LLM之間的工具、資源和提示共享,無需API密鑰,支持多種模型。