阿里巴巴成立“千問C端事業羣”,整合智能信息與智能互聯業務,由副總裁吳嘉負責,發力消費端AI生態,涵蓋千問APP、夸克、UC瀏覽器、書旗小說等應用及AI硬件。
智譜開源AI Agent模型AutoGLM,該模型具備“Phone Use”能力,可穩定完成外賣點單、機票預訂等長達數十步的複雜手機操作。開源後,硬件廠商、手機廠商及開發者可在自有系統中復現能“看懂屏幕”、像真人一樣完成點擊、輸入、滑動等操作的AI助手。目前AutoGLM已支持微信、淘寶、抖音等超過50款高頻中文應用。
Meta收購AI可穿戴設備公司Limitless,其智能吊墜支持語音交互、實時錄音轉錄和語音搜索,旨在提升用戶專注力和記憶力。Limitless團隊將加入Meta開發下一代AI硬件,此前Meta已進行戰略調整。
京東雲JoyBuilder平臺升級,成功支撐GR00T N1.5模型完成千卡級訓練,成爲行業首家支持具身智能千卡級LeRobot開源訓練框架的AI開發平臺。訓練效率較開源社區版本提升3.5倍,通過軟硬件深度調優和算法突破,大幅提升訓練效率與穩定性,顯著縮短訓練時間。
確保AI可解釋、可審計、安全的硬件解決方案
私有、無審查的AI家用硬件設備
Anthropic
$105
輸入tokens/百萬
$525
輸出tokens/百萬
200
上下文長度
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
-
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
32
Deepseek
$4
$12
Tencent
$1
bartowski
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基於Meta的Llama-3.1-8B模型開發的優化版本,專門針對AMD Ryzen AI NPU進行優化部署。該模型通過Quark量化、OGA模型構建器和NPU專用後處理技術,在保持高質量文本生成能力的同時,顯著提升了在AMD硬件上的推理效率。
mradermacher
這是 liushiliushi/ConfTuner-Ministral 模型的靜態量化版本,適用於文本生成和置信度估計任務。該模型基於 Mistral 架構,經過微調以提供可信賴的AI輸出,支持多種量化級別以滿足不同硬件需求。
這是基於mookiezii/Discord-Hermes-3-8B模型進行量化處理後的版本,提供了多種量化格式的GGUF模型文件,適用於不同硬件環境和性能需求的對話AI應用場景。
DevQuasar
這是慧慧Qwen3-4B思維模型的量化版本,基於Qwen2-4B架構構建,致力於通過量化技術讓AI知識更易於獲取和使用,降低硬件門檻。
lmstudio-community
GLM 4.5 Air是由Zai-Org開發的高效文本生成模型,經過bartowski使用llama.cpp進行GGUF量化處理,在保持性能的同時顯著降低了硬件需求,適合在消費級硬件上運行。
這是AI21 Labs的Jamba-Mini-1.7模型的量化版本,使用llama.cpp的imatrix技術進行優化,為不同硬件配置提供了多種量化選擇,支持高效推理。
這是慧慧AI基於Qwen3-14B模型的量化版本,旨在通過模型壓縮技術讓大語言模型更加輕量化,降低硬件需求,使知識獲取更加普及和便捷。
EXAONE-3.5-7.8B-Instruct是由LG AI研發的78億參數多語言指令調優大語言模型,支持英語和韓語。該版本經過llama.cpp的imatrix量化處理,提供多種量化級別,可在消費級硬件上高效運行。
Aion-RP-Llama-3.1-8B的Llamacpp imatrix量化版本,提供多種量化選項以適應不同硬件需求。
shuttleai
一款高效的文生圖AI模型,僅需4步即可生成高質量圖像,支持多種硬件優化格式。
featherless-ai-quants
這是一個基於Meta-Llama-3-8B-Instruct模型的GGUF量化版本,由Featherless AI團隊優化。該模型經過多種量化處理,顯著提升了性能並減少了資源需求,適合在各種硬件上部署使用。
這是Jina AI開發的reader-lm-1.5b模型的GGUF量化版本,使用llama.cpp b3715版本進行imatrix量化。該模型是一個15億參數的多語言文本生成模型,支持多種量化格式,適用於不同硬件配置和性能需求。
Awesome MCP Servers 是一個全面的Model Context Protocol (MCP)服務器集合,涵蓋了7158個MCP服務器,分為33個類別,包括AI集成、藝術媒體、瀏覽器自動化、雲服務、數據庫、開發者工具、文件系統、金融、遊戲、硬件、醫療、基礎設施、知識管理、位置地圖、市場營銷、監控、多媒體處理、操作系統、項目管理、科學研究、安全、社交媒體、旅行交通、實用工具和版本控制等。
mcp2mqtt是一個連接物聯網設備與AI大模型的橋樑項目,通過MCP和MQTT協議實現自然語言控制硬件設備。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
一個專業的串口通信MCP服務器,為AI助手提供全面的串口通信能力,支持嵌入式系統、物聯網設備和硬件調試,具有跨平臺支持和多種數據格式處理功能。
基於mcp-server的項目,支持AI大模型高效調用spinq的量子計算硬件資源,提供Windows和macOS的一鍵安裝腳本,自動檢測Python環境並安裝依賴。
MCP2Serial是一個連接物理設備與AI大模型的橋樑項目,通過自然語言控制硬件設備,實現物聯網智能化控制。
mcp2tcp是一個連接物理硬件與AI大模型的橋樑項目,通過MCP協議實現自然語言控制硬件設備。
一個專業的嵌入式調試MCP服務器,提供AI助手全面的嵌入式系統調試能力,支持ARM Cortex-M和RISC-V微控制器,與真實硬件集成。
一個輕量級服務器,通過簡單API暴露Mac系統信息,幫助AI助手獲取即時硬件和系統數據,主要用於Mac用戶的AI和深度學習實驗。
IntelliGlow是一個基於MCP協議的AI智能照明控制系統,通過UDP網絡直接控制真實智能燈泡,支持語音命令、AI推理和硬件控制,實現自然語言交互與智能家居的無縫對接。
JetsonMCP是一個通過SSH連接管理NVIDIA Jetson Nano邊緣計算設備的MCP服務器,提供AI工作負載優化、硬件配置和系統管理功能,支持自然語言指令轉換為專業操作命令。
JetsonMCP是一個MCP服務器,通過SSH連接幫助AI助手管理和優化NVIDIA Jetson Nano邊緣計算系統,提供AI工作負載部署、硬件優化和系統管理功能。
IntelliGlow是一個基於MCP協議的智能照明系統,通過AI助手控制真實智能燈泡,支持語音命令、AI推理和直接硬件控制,實現自然語言交互和智能燈光管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等多種桌面環境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多種後端,提供高級UI、上下文功能和對話管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等桌面環境,提供與OpenAI、Ollama及AMD Ryzen AI硬件加速的無縫集成。