杭州上城區企業智譜在湖濱步行街舉辦活動,宣佈國內首個一鍵安裝的本地版AI應用AutoClaw(澳龍)正式上線。該應用操作簡便,吸引衆多市民體驗。
2026年3月10日,港股AI板塊強勢反彈,智譜股價領漲超12%。此次行情主要由智譜上線的新工具AutoClaw驅動。作爲國內首個真正實現一鍵本地部署的“龍蝦”版本,它解決了開源項目OpenClaw部署複雜的問題,大幅降低了使用門檻,從而提振了市場信心。
中興通訊推出企業級桌面智能體Co-Claw企業版,通過強化企業級部署、安全治理與能力複用,推動AI代理進入規模化應用階段。該產品將運行環境統一遷移,替代傳統本地小主機部署,助力企業辦公智能化轉型。
Anthropic推出Claude Cowork功能,基於Skills for Claude技術演進,作爲研究預覽版面向macOS用戶開放。該功能深度集成本地工作流,需訂閱Claude Max套餐使用,旨在拓展AI代理在日常辦公場景的應用能力。
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Openai
-
Google
$0.7
$2.8
1k
Alibaba
$1
$10
256
Baidu
128
32
$0.4
$0.75
$4
Chatglm
$2
$8
$1.8
$5.4
16
noctrex
這是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一個內存高效的壓縮模型。通過REAP(路由加權專家激活剪枝)方法,在保持性能的同時將模型從230B參數壓縮到172B參數,體積縮小25%,適用於資源受限的環境、本地部署和學術研究。
geoffmunn
這是Qwen/Qwen3-Coder-30B-A3B-Instruct語言模型的GGUF量化版本,專門針對代碼生成和編程任務優化,採用FP32精度轉換,適用於本地推理部署。
lefromage
這是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。該模型是一個800億參數的大型語言模型,採用Apache 2.0許可證,支持文本生成任務。GGUF格式便於在本地設備上部署和運行。
這是Qwen/Qwen3-Coder-30B-A3B-Instruct語言模型的GGUF量化版本,專為本地推理優化,支持llama.cpp、LM Studio、OpenWebUI、GPT4All等框架。該模型是一個30B參數規模的代碼生成和編程助手模型。
mlx-community
GLM-4.5-Air-mxfp4 是智源研究院 GLM-4.5-Air 模型的 MLX 格式轉換版本,專門為 Apple Silicon 設備優化,支持高效的本地推理。
這是Qwen/Qwen3-14B語言模型的GGUF量化版本,擁有140億參數,具備深度推理能力、研究級準確性和自主工作流程。經過轉換後可用於llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
abnormalmapstudio
這是基於Qwen3-Next-80B-A3B-Thinking基礎模型的蘋果MLX優化4位mxfp4量化版本,專門針對蘋果硅芯片優化,可在Mac設備上實現高效的本地推理,顯著降低內存佔用同時保持良好性能。
YOYO-AI
這是一個基於Qwen3-30B模型的GGUF量化版本,採用Q4_K_M量化方法,通過llama.cpp工具轉換而成,支持本地環境下的高效文本生成任務。
QuantFactory
這是Tesslate/WEBGEN-4B-Preview的量化版本,專注於生成單文件網站,能將提示轉化為簡潔、響應式的HTML/CSS/Tailwind代碼。模型小巧適合本地運行和快速迭代,具有開放權重、移動優先輸出、默認無外部JS等特點。
Instinct是基於Qwen2.5-Coder-7B的代碼編輯模型,經過真實世界代碼編輯數據集微調,能夠智能預測開發者的下一步操作,保持流暢編程狀態。該GGUF量化版本由QuantFactory創建,提供高效的本地推理能力。
這是基於NousResearch/Hermes-4-14B模型轉換的8位量化MLX格式版本,專門為Apple Silicon優化,支持高效的本地推理。該模型是一個140億參數的大型語言模型,專注於指令遵循、推理和對話任務。
MaziyarPanahi
本項目提供了Qwen/Qwen3-4B-Instruct-2507模型的GGUF格式量化版本,支持多種量化級別(2位至8位),專為高效的文本生成任務設計,可在本地環境中運行。
LogicBombaklot
這是一個基於NVIDIA Llama-3.3-Nemotron-Super-49B-v1.5模型轉換的MLX格式版本,使用mlx-lm 0.26.3工具轉換為8位量化格式,專門為Apple Silicon芯片優化,支持高效的本地推理。
tensorblock
這是一個基於Hermes-3架構的3B參數語言模型,專門針對Discord聊天場景優化,提供多種量化版本的GGUF格式文件,適用於本地部署和推理。
基於Qwen3-1.7B模型進行優化的中文語言模型,提供多種量化版本的GGUF格式文件,適用於本地部署和推理。
NexaAI
這是OpenAI GPT OSS 20B模型的GGUF版本,擁有210億參數,其中36億為活躍參數。該版本針對本地部署和特定使用場景進行了優化,旨在降低推理延遲,提高運行效率。
calcuis
Higgs的GGUF量化版本是基於bosonai基礎模型的文本轉語音合成模型,支持多種語言的語音生成,具有高效的推理性能和便捷的本地部署能力。
這是基於Qwen3-8B模型經過Josiefied和abliterated處理後的GGUF量化版本,提供多種量化級別選擇,適用於本地推理部署
Veena模型是由maya-research開發的大語言模型,本倉庫提供了該模型的GGUF量化格式文件。這些文件由TensorBlock提供的機器進行量化處理,與特定版本的llama.cpp兼容,適用於本地部署和推理。
該模型是基於 deepseek-ai/deepseek-r1-0528-Qwen3-8B 轉換的 MLX 格式版本,適用於蘋果設備的本地推理。
Project Hub MCP Server是一個綜合項目管理工具,提供本地Git功能、GitHub集成和項目文檔管理,支持從項目創建到代碼版本控制的完整工作流。
Awesome MCP Servers是一個精選的Model Context Protocol (MCP)服務器列表,涵蓋了瀏覽器自動化、藝術與文化、雲平臺、命令行、通信、客戶數據平臺、數據庫、開發者工具、文件系統、金融科技、知識與記憶、位置服務、監控、搜索、安全、旅行與交通、版本控制等多種工具和集成。MCP是一個開放協議,使AI模型能夠通過標準化的服務器實現安全地與本地和遠程資源交互。
基於MCP協議的本地SageMath數學計算服務端,提供版本查詢和代碼執行功能,支持STDIO和HTTP雙傳輸模式
DevDocs-MCP是一個本地化的MCP服務器,為AI助手提供版本固定的權威文檔數據,消除AI幻覺並確保API上下文準確性。
Kestra Python MCP Server是一個Beta版的工具服務器,用於與Kestra工作流平臺交互,支持通過Docker容器或本地開發環境運行,提供多種工具功能如流程管理、執行控制等。
codemcp是一個將Claude Desktop轉變為結對編程助手的工具,允許用戶直接讓Claude在本地代碼庫上實現功能、修復錯誤和重構代碼,同時通過Git版本控制確保安全。
一個用於App Store Connect和Google Play Console API的MCP服務器,提供本地化ASO工作流工具,支持元數據管理、版本發佈和商店同步。
一個輕量級的MCP服務器,用於管理LLM(如Claude)的會話摘要和備忘錄,提供本地文件系統存儲,支持會話歷史版本追蹤和檢索功能。