移動端運行大模型已成常態,而瀏覽器內置強大AI能力成爲新趨勢。開發者利用Google的TurboQuant算法,成功將Gemma4模型部署到瀏覽器中,用戶無需API配置或訂閱費用,即可在本地實現流暢AI交互。核心是TurboQuant算法帶來的記憶革命。
聯想近日發佈ThinkPad新品及天禧AI生態,推出AI主機系列,包括ThinkCentre Mini、ThinkCentre和ThinkCentre Pro三個版本,覆蓋從個人到專業用戶的不同算力需求。此舉完善了端側AI硬件佈局,爲用戶提供從雲端租用轉向本地AI部署的新選擇。
中興通訊發佈Co-Claw AI一體機,旨在解決開源智能體在企業應用中的安全與合規問題。該產品提供本地化部署,強化隱私保護,打造企業級AI“安全屋”,標誌着中興在可控AI Agent領域邁出關鍵一步。
聯想天禧AI生態啓動“龍蝦”天禧AI Claw內測,用戶可免費體驗雲端超大模型。該產品採用端雲混合部署,結合本地與雲端算力,支持設備關機時雲端任務處理。
Eigent 是首個多代理工作團隊,助力提高生產力。
Dyad是一款免費的本地開源AI應用構建工具。
輕鬆構建自己的大模型,專屬智慧,盡在本地。
autoMate 是一款 AI 驅動的本地自動化工具,通過自然語言讓計算機自主完成任務。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
$17.5
Alibaba
$2
-
256
Baidu
32
Openai
$0.4
128
$0.75
64
$0.63
$3.15
131
$1
$4
Huawei
Chatglm
$1.8
$5.4
16
Tencent
$0.8
$0.3
noctrex
這是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一個內存高效的壓縮模型。通過REAP(路由加權專家激活剪枝)方法,在保持性能的同時將模型從230B參數壓縮到172B參數,體積縮小25%,適用於資源受限的環境、本地部署和學術研究。
geoffmunn
這是Qwen/Qwen3-Coder-30B-A3B-Instruct語言模型的GGUF量化版本,專門針對代碼生成和編程任務優化,採用FP32精度轉換,適用於本地推理部署。
sanchezalonsodavid17
這是DeepSeek-OCR的模態平衡量化(MBQ)變體,通過對視覺編碼器採用4位NF4量化減少內存佔用,同時保持投影器和語言/解碼器的BF16精度,可在普通GPU上進行本地部署和快速CPU試驗。
lefromage
這是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。該模型是一個800億參數的大型語言模型,採用Apache 2.0許可證,支持文本生成任務。GGUF格式便於在本地設備上部署和運行。
Sci-fi-vy
GPT-OSS-20B是OpenAI推出的開放權重模型,專為強大推理、智能體任務和多樣化開發者用例設計。該模型具有210億參數(其中36億為活躍參數),採用混合專家架構,支持低延遲本地部署和特定場景應用。
professorf
GPT-OSS-20B是OpenAI推出的開放權重模型,擁有210億參數(其中36億為活躍參數),專為低延遲、本地部署和特定用例設計。該模型基於harmony響應格式訓練,具備強大的推理能力和智能體任務處理能力。
duyntnet
Chroma 是一個高質量的文本到圖像生成模型,專注於生成逼真的圖像內容。該模型採用先進的擴散技術,能夠根據文本描述生成高質量的視覺內容,特別適合本地部署環境下的圖像創作需求。
tensorblock
這是一個基於Hermes-3架構的3B參數語言模型,專門針對Discord聊天場景優化,提供多種量化版本的GGUF格式文件,適用於本地部署和推理。
基於Qwen3-1.7B模型進行優化的中文語言模型,提供多種量化版本的GGUF格式文件,適用於本地部署和推理。
0xShonen
GPT-OSS-20B是OpenAI發佈的開放權重模型,專為強大的推理、智能體任務和多樣化開發者用例設計。該模型具有21B參數(其中3.6B為活躍參數),支持低延遲推理和本地部署,採用Apache 2.0許可證,可自由用於實驗、定製和商業部署。
NexaAI
這是OpenAI GPT OSS 20B模型的GGUF版本,擁有210億參數,其中36億為活躍參數。該版本針對本地部署和特定使用場景進行了優化,旨在降低推理延遲,提高運行效率。
axolotl-ai-co
gpt-oss-20b是OpenAI推出的開放權重模型,擁有210億參數(其中36億為活躍參數),專為低延遲、本地部署和特定場景設計。該模型基於harmony響應格式訓練,具備強大的推理能力和智能體任務處理能力。
gabriellarson
gpt-oss-20b是OpenAI推出的開放權重模型,具備強大的推理能力,適用於代理任務和開發者的多樣使用場景。該模型具有低延遲特性,適用於本地或特定場景部署。
Foundation-Sec-8B-Instruct是一款專為網絡安全應用設計的80億參數指令調優語言模型。基於Llama-3.1-8B架構,具備出色的指令跟隨能力和網絡安全專業知識,支持本地部署,可幫助組織構建AI安全工具,減少對雲服務的依賴。
calcuis
Higgs的GGUF量化版本是基於bosonai基礎模型的文本轉語音合成模型,支持多種語言的語音生成,具有高效的推理性能和便捷的本地部署能力。
prithivMLmods
基於Qwen3架構構建的專業模型,專注於科學、人工智能設計和通用推理領域。該模型在高難度科學推理數據集上進行了微調,具備出色的通用和創造性推理能力,體積小巧適合本地設備和服務器部署。
這是基於Qwen3-8B模型經過Josiefied和abliterated處理後的GGUF量化版本,提供多種量化級別選擇,適用於本地推理部署
mistralai
魔主小型 1.1是基於魔主小型3.1構建的240億參數高效推理模型,新增推理能力,支持多語言,採用Apache 2.0許可證,可在單張RTX 4090或32GB內存MacBook上本地部署運行。
Veena模型是由maya-research開發的大語言模型,本倉庫提供了該模型的GGUF量化格式文件。這些文件由TensorBlock提供的機器進行量化處理,與特定版本的llama.cpp兼容,適用於本地部署和推理。
argmaxinc
ParakeetKit Pro 是一個將 Nvidia Parakeet 模型部署在 Apple Silicon 上的工具,支持本地設備端的語音識別任務。
Refact Agent 是一個開源AI編程助手,支持多語言代碼生成、調試和優化,集成主流開發工具,可本地化部署並提供智能補全和代碼解釋功能。
微軟官方MCP服務器集合,提供Azure、GitHub、Microsoft 365、Fabric等多種服務的AI助手集成工具,支持本地和遠程部署,幫助開發者通過標準化協議連接AI模型與各類數據源和工具。
MCP Atlassian是一個為Atlassian產品(Confluence和Jira)設計的模型上下文協議服務器,支持雲端和本地部署,提供AI助手集成功能。
Vestige是一個基於認知科學的AI記憶引擎,通過實現預測誤差門控、FSRS-6間隔重複、記憶夢境等29個神經科學模塊,為AI提供長期記憶能力。包含3D可視化儀表板和21個MCP工具,完全本地運行,無需雲端。
一個輕量級的MCP服務器,為AI助手如Claude提供即時天氣數據查詢和解析功能。支持本地和遠程兩種部署方式,包含Docker容器化方案。
XiYan MCP Server是一個基於XiYan-SQL的模型上下文協議服務器,支持通過自然語言查詢數據庫,提供多種LLM模型集成和本地化部署選項。
XiYan MCP Server是一個基於XiYan-SQL的模型上下文協議服務器,支持通過自然語言查詢數據庫,提供多種LLM模型配置和數據庫連接方式,適用於本地或遠程部署。
這是一個使用Azure Functions (.NET/C#)快速構建和部署遠程MCP服務器的模板項目,支持本地調試和雲端部署,提供安全認證和網絡隔離選項。
一個基於Spring Boot 3和Java 24的OAuth2授權服務器項目,支持GraalVM原生鏡像、CRaC檢查點恢復、本地AI模型測試及Docker部署。
一個簡單的MCP服務器項目,支持本地通過Ngrok連接或Docker容器部署,提供Shell執行功能。
一個基於AWS Lambda和API Gateway的極簡Model Context Protocol (MCP)服務器,使用Serverless Framework部署,支持本地開發和測試。
基於Next.js的EigenLayer MCP服務,為AI助手提供文檔支持,可本地運行或部署在Vercel上
一個基於PyAutoGUI的MCP和HTTP服務器包裝器,允許LLM通過遠程或本地連接控制計算機的鼠標和鍵盤操作,支持分佈式部署和多種傳輸協議。
Vaali MCP服務器是一個展示高級AI代理能力的開源項目,通過交互式參數收集和工作流自動化,實現了官方MCP詢問和智能參數引導兩種模式,支持雲端部署和本地集成。
一個基於TypeScript的MCP服務器啟動項目,提供簡單回聲服務實現,支持工具、資源和提示模板功能,包含開發服務器和調試工具,適用於本地開發和遠程部署。
該項目展示瞭如何在Cloudflare Workers上搭建遠程MCP服務器,並實現OAuth登錄功能。提供了本地開發、MCP檢查器連接、Claude桌面應用集成以及部署到Cloudflare的完整流程。
基於Next.js的EigenLayer MCP服務,為AI助手提供文檔支持,可本地運行或部署至Vercel
一個基於LLM CLI的MCP服務器模板項目,提供開發、測試和部署工具,支持架構設計反饋和本地調試。
Dynatrace Managed MCP服務器是一個開源項目,允許AI助手通過模型上下文協議(MCP)與自託管的Dynatrace Managed部署進行交互,將可觀測性數據直接集成到AI輔助工作流中。它支持本地和遠程模式,可配置多個環境,提供問題、安全、實體、SLO、事件、日誌和指標等數據的查詢能力。
Trade It MCP Server是一個遠程MCP服務,允許用戶通過自然語言指令在支持的券商平臺上進行股票、加密貨幣和期權交易,無需本地部署。