四川虹魔方與騰訊雲在重慶簽約,合作開發新一代AI玩偶。雙方將整合雲計算、AI大模型及智能硬件優勢,推動AI玩具從功能性工具向情感陪伴智能體轉型,實現軟硬結合,賦予傳統玩具更強的交互與陪伴能力。
華爲聯合生態夥伴發佈教育AI戰略及全場景校園方案,依託鴻蒙分佈式技術與AI大模型深度融合,打破設備硬件邊界,實現教學終端無縫協同,推動教育數字化轉型進入新階段。
OpenAI正與聯發科、高通及立訊精密合作,研發一款顛覆性智能手機。芯片由OpenAI與聯發科、高通聯合設計,立訊精密負責製造,標誌着AI巨頭向硬件領域深度進軍。
京東啓動“Aidol創造營”全球招募計劃,旨在挖掘優秀AI智能硬件項目,目標年內孵化101個標杆產品。計劃提供覆蓋全生命週期的五大核心資源,助力項目快速落地並實現商業化突破。
檢測硬件,瞭解本地可運行的AI模型,支持GPU、CPU和RAM分析
確保AI可解釋、可審計、安全的硬件解決方案
私有、無審查的AI家用硬件設備
Anthropic
$105
輸入tokens/百萬
$525
輸出tokens/百萬
200
上下文長度
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$6
$24
256
Baidu
-
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
32
Deepseek
$4
$12
Tencent
$1
bartowski
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基於Meta的Llama-3.1-8B模型開發的優化版本,專門針對AMD Ryzen AI NPU進行優化部署。該模型通過Quark量化、OGA模型構建器和NPU專用後處理技術,在保持高質量文本生成能力的同時,顯著提升了在AMD硬件上的推理效率。
mradermacher
這是 liushiliushi/ConfTuner-Ministral 模型的靜態量化版本,適用於文本生成和置信度估計任務。該模型基於 Mistral 架構,經過微調以提供可信賴的AI輸出,支持多種量化級別以滿足不同硬件需求。
這是基於mookiezii/Discord-Hermes-3-8B模型進行量化處理後的版本,提供了多種量化格式的GGUF模型文件,適用於不同硬件環境和性能需求的對話AI應用場景。
DevQuasar
這是慧慧Qwen3-4B思維模型的量化版本,基於Qwen2-4B架構構建,致力於通過量化技術讓AI知識更易於獲取和使用,降低硬件門檻。
lmstudio-community
GLM 4.5 Air是由Zai-Org開發的高效文本生成模型,經過bartowski使用llama.cpp進行GGUF量化處理,在保持性能的同時顯著降低了硬件需求,適合在消費級硬件上運行。
這是AI21 Labs的Jamba-Mini-1.7模型的量化版本,使用llama.cpp的imatrix技術進行優化,為不同硬件配置提供了多種量化選擇,支持高效推理。
這是慧慧AI基於Qwen3-14B模型的量化版本,旨在通過模型壓縮技術讓大語言模型更加輕量化,降低硬件需求,使知識獲取更加普及和便捷。
EXAONE-3.5-7.8B-Instruct是由LG AI研發的78億參數多語言指令調優大語言模型,支持英語和韓語。該版本經過llama.cpp的imatrix量化處理,提供多種量化級別,可在消費級硬件上高效運行。
Aion-RP-Llama-3.1-8B的Llamacpp imatrix量化版本,提供多種量化選項以適應不同硬件需求。
shuttleai
一款高效的文生圖AI模型,僅需4步即可生成高質量圖像,支持多種硬件優化格式。
featherless-ai-quants
這是一個基於Meta-Llama-3-8B-Instruct模型的GGUF量化版本,由Featherless AI團隊優化。該模型經過多種量化處理,顯著提升了性能並減少了資源需求,適合在各種硬件上部署使用。
這是Jina AI開發的reader-lm-1.5b模型的GGUF量化版本,使用llama.cpp b3715版本進行imatrix量化。該模型是一個15億參數的多語言文本生成模型,支持多種量化格式,適用於不同硬件配置和性能需求。
Awesome MCP Servers 是一個全面的Model Context Protocol (MCP)服務器集合,涵蓋了7158個MCP服務器,分為33個類別,包括AI集成、藝術媒體、瀏覽器自動化、雲服務、數據庫、開發者工具、文件系統、金融、遊戲、硬件、醫療、基礎設施、知識管理、位置地圖、市場營銷、監控、多媒體處理、操作系統、項目管理、科學研究、安全、社交媒體、旅行交通、實用工具和版本控制等。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
這是一個通過MCP協議控制Commodore 64 Ultimate硬件的服務器,允許AI助手(如Claude)通過網絡與復古計算機進行交互,實現編程、運行遊戲、播放音樂、管理磁盤等操作。
mcp2mqtt是一個連接物聯網設備與AI大模型的橋樑項目,通過MCP和MQTT協議實現自然語言控制硬件設備。
RegenNexus UAP是一個通用適配器協議,用於連接設備、機器人、應用和AI代理,提供低延遲、高安全性的通信,支持多種硬件和MCP集成。
一個專業的串口通信MCP服務器,為AI助手提供全面的串口通信能力,支持嵌入式系統、物聯網設備和硬件調試,具有跨平臺支持和多種數據格式處理功能。
基於mcp-server的項目,支持AI大模型高效調用spinq的量子計算硬件資源,提供Windows和macOS的一鍵安裝腳本,自動檢測Python環境並安裝依賴。
MCP2Serial是一個連接物理設備與AI大模型的橋樑項目,通過自然語言控制硬件設備,實現物聯網智能化控制。
一個為FIRST機器人競賽隊伍設計的工具,可同時搜索WPILib、REV、CTRE等多個官方文檔庫,通過自然語言提問快速獲取編程和硬件配置答案,支持VS Code集成和AI助手優化。
一個專業的嵌入式調試MCP服務器,提供AI助手全面的嵌入式系統調試能力,支持ARM Cortex-M和RISC-V微控制器,與真實硬件集成。
mcp2tcp是一個連接物理硬件與AI大模型的橋樑項目,通過MCP協議實現自然語言控制硬件設備。
一個輕量級服務器,通過簡單API暴露Mac系統信息,幫助AI助手獲取即時硬件和系統數據,主要用於Mac用戶的AI和深度學習實驗。
一個狀態化的藍牙低功耗(BLE)模型上下文協議(MCP)服務器,為開發工具和AI代理提供與真實BLE硬件交互的能力,支持掃描、連接、讀寫、訂閱通知等操作,並可擴展設備協議規範和插件。
這是一個為Commodore 64 Ultimate(官方現代C64電腦)設計的MCP服務器,通過REST API讓AI助手(如Claude、ChatGPT)能夠遠程控制C64硬件,支持程序加載、內存操作、磁盤管理等功能。
IntelliGlow是一個基於MCP協議的AI智能照明控制系統,通過UDP網絡直接控制真實智能燈泡,支持語音命令、AI推理和硬件控制,實現自然語言交互與智能家居的無縫對接。
JetsonMCP是一個MCP服務器,通過SSH連接幫助AI助手管理和優化NVIDIA Jetson Nano邊緣計算系統,提供AI工作負載部署、硬件優化和系統管理功能。
JetsonMCP是一個通過SSH連接管理NVIDIA Jetson Nano邊緣計算設備的MCP服務器,提供AI工作負載優化、硬件配置和系統管理功能,支持自然語言指令轉換為專業操作命令。
IntelliGlow是一個基於MCP協議的智能照明系統,通過AI助手控制真實智能燈泡,支持語音命令、AI推理和直接硬件控制,實現自然語言交互和智能燈光管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等多種桌面環境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多種後端,提供高級UI、上下文功能和對話管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等桌面環境,提供與OpenAI、Ollama及AMD Ryzen AI硬件加速的無縫集成。