OpenAI正尋求英偉達之外的AI算力替代方案,因其對英偉達最新芯片在推理環節的響應速度不滿。公司發現,在代碼生成等複雜交互中,硬件速度已成瓶頸,因此戰略重心正從模型訓練轉向推理優化。
智元機器人在成都成立子公司智元創新(成都)科技有限公司,業務涵蓋人工智能公共數據平臺、通用應用系統開發、AI硬件銷售及基礎資源與技術平臺建設,加速AI領域擴張。
小鵬汽車2026款P7+正式開啓海外大規模發運,標誌着中國AI智駕技術加速全球化。該車型搭載頂尖算力硬件,實現智能化跨越升級,以“AI汽車”定位定義智駕新標準,展現中國智能電動汽車領域的海外拓展實力。
宇樹科技創始人王興興近日表示,率先將大模型與機器人硬件深度融合的企業將引領全球AI發展,其技術突破意義重大,甚至“足以獲得諾貝爾獎”。他認爲,大模型與機器人的結合是衡量AI公司是否達到世界頂級水平的關鍵標誌。
現代硬件設計的CAD軟件
確保AI可解釋、可審計、安全的硬件解決方案
私有、無審查的AI家用硬件設備
構建最節能的人工智能硬件
Bytedance
$0.8
輸入tokens/百萬
$2
輸出tokens/百萬
128
上下文長度
$0.15
$1.5
256
Alibaba
-
32
Tencent
$1
$3
4
Google
$0.35
$0.7
131
Chatglm
Baidu
$10
bartowski
這是微軟Fara-7B模型的量化版本,使用llama.cpp的imatrix技術進行優化。該模型支持多種量化級別,從高精度的bf16到極低精度的IQ2_M,滿足不同硬件配置和性能需求。
這是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技術進行優化量化處理,提供多種量化級別選擇,適用於不同硬件配置和性能需求。
這是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技術進行量化處理。該版本提供了從BF16到IQ2_S等多種量化級別,滿足不同硬件條件和性能需求的用戶。模型使用特定數據集進行校準優化,支持在線重打包功能以提升在ARM和AVX硬件上的性能。
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
這是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通過llama.cpp工具進行多種量化處理,旨在提升模型在特定環境下的性能和效率。提供了從Q2到Q8的多種量化選項,滿足不同硬件配置和性能需求。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
mradermacher
這是wexyyyyyy/Ru-Gemma3-1B模型的靜態量化版本,支持俄語和英語,專為對話和文本生成任務設計。該模型提供了多種量化版本,適用於不同的硬件配置和性能需求。
MaziyarPanahi
本項目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,這是一個具有思維鏈推理能力的4B參數大語言模型,支持多種量化版本,便於在各種硬件上部署運行。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基於GLM-4.5-Iceblink-v2-106B-A12B模型,採用最先進的混合專家量化方法進行FP8量化的版本。該模型專門針對支持硬件FP8的Ada、Hopper或Blackwell系列GPU優化,在保持高質量輸出的同時顯著提升推理效率。
Diver-GroupRank-7B是一個專門用於段落排序、文本排序、推理和信息檢索的7B參數模型。本版本提供了多種量化格式,適用於不同的硬件和性能需求。
基於AQ-MedAI/Diver-GroupRank-7B模型的靜態量化版本,專門用於段落排序、文本排序、推理和信息檢索等任務。提供了多種量化級別以適應不同的硬件需求。
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 進行量化處理。該模型是一個 1.5B 參數的文本生成模型,支持多種量化級別(2位到8位),便於在各種硬件上高效運行。
這是基於p-e-w發佈的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本進行imatrix量化。提供了多種量化選項以適應不同硬件和性能需求,支持在LM Studio或llama.cpp中運行。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
這是adith-ds/emotion-classifier-v2模型的靜態量化版本,提供了多種GGUF量化格式,適用於情感分類任務。模型經過優化,可在不同硬件環境下高效運行。
本項目提供了Qwen-4B-Instruct-2507-Self-correct模型的靜態量化版本,支持文本生成、偏差緩解、自我修正等任務。該模型基於Qwen-4B架構,經過指令微調和自我修正訓練,提供多種量化版本以適應不同硬件需求。
這是 Manoghn/voicecraft-mistral-7b 模型的靜態量化GGUF版本,基於Mistral-7B架構,專門用於內容生成和文本生成任務。該版本提供了多種量化級別,從2.8GB到14.6GB不等,用戶可以根據硬件條件和性能需求選擇合適的版本。
abr-ai
這是一個由Applied Brain Research(ABR)開發的基於狀態空間模型(SSM)的英文自動語音識別模型,擁有約1900萬參數,能夠高效準確地將英文語音轉錄為文本。該模型在多個基準數據集上表現出色,平均單詞錯誤率僅為10.61%,支持即時語音識別並可在低成本硬件上運行。
ZygAI
ZygAI 是一款專為立陶宛語和英語任務設計的快速本地大語言模型,處於測試階段。它作為輕量級的雙語助手,能夠在本地硬件上即時運行,為用戶提供高效、準確的雙語服務。
這是Precog-123B-v1模型的llama.cpp量化版本,提供了多種量化類型以滿足不同硬件配置和使用場景的需求。該模型是一個擁有1230億參數的大型語言模型,經過優化後可在各種硬件上高效運行。
Awesome MCP Servers 是一個全面的Model Context Protocol (MCP)服務器集合,涵蓋了7158個MCP服務器,分為33個類別,包括AI集成、藝術媒體、瀏覽器自動化、雲服務、數據庫、開發者工具、文件系統、金融、遊戲、硬件、醫療、基礎設施、知識管理、位置地圖、市場營銷、監控、多媒體處理、操作系統、項目管理、科學研究、安全、社交媒體、旅行交通、實用工具和版本控制等。
mcp2mqtt是一個連接物聯網設備與AI大模型的橋樑項目,通過MCP和MQTT協議實現自然語言控制硬件設備。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
一個用於與計算機外設無縫集成的MCP服務器,提供統一的API來控制、監控和管理硬件設備,包括攝像頭、打印機、音頻設備和屏幕。
RegenNexus UAP是一個通用適配器協議,用於連接設備、機器人、應用和AI代理,提供低延遲、高安全性的通信,支持多種硬件和MCP集成。
Vibe Composer MCP 是一個基於 MCP 服務器的音樂創作工具,允許用戶通過自然語言與 LLM 對話來創作多軌音樂,並支持輸出到軟件或硬件合成器。
一個專業的串口通信MCP服務器,為AI助手提供全面的串口通信能力,支持嵌入式系統、物聯網設備和硬件調試,具有跨平臺支持和多種數據格式處理功能。
基於mcp-server的項目,支持AI大模型高效調用spinq的量子計算硬件資源,提供Windows和macOS的一鍵安裝腳本,自動檢測Python環境並安裝依賴。
MCP2Serial是一個連接物理設備與AI大模型的橋樑項目,通過自然語言控制硬件設備,實現物聯網智能化控制。
ESP32 CYD開發板的MCP服務器實現,提供通過WebSocket協議遠程控制顯示屏、觸摸、GPIO、傳感器等硬件功能的完整解決方案。
mcp2tcp是一個連接物理硬件與AI大模型的橋樑項目,通過MCP協議實現自然語言控制硬件設備。
一個為FIRST機器人競賽隊伍設計的工具,可同時搜索WPILib、REV、CTRE等多個官方文檔庫,通過自然語言提問快速獲取編程和硬件配置答案,支持VS Code集成和AI助手優化。
一個專業的嵌入式調試MCP服務器,提供AI助手全面的嵌入式系統調試能力,支持ARM Cortex-M和RISC-V微控制器,與真實硬件集成。
一個輕量級服務器,通過簡單API暴露Mac系統信息,幫助AI助手獲取即時硬件和系統數據,主要用於Mac用戶的AI和深度學習實驗。
這是一個為Commodore 64 Ultimate(官方現代C64電腦)設計的MCP服務器,通過REST API讓AI助手(如Claude、ChatGPT)能夠遠程控制C64硬件,支持程序加載、內存操作、磁盤管理等功能。
IntelliGlow是一個基於MCP協議的AI智能照明控制系統,通過UDP網絡直接控制真實智能燈泡,支持語音命令、AI推理和硬件控制,實現自然語言交互與智能家居的無縫對接。
JetsonMCP是一個MCP服務器,通過SSH連接幫助AI助手管理和優化NVIDIA Jetson Nano邊緣計算系統,提供AI工作負載部署、硬件優化和系統管理功能。
JetsonMCP是一個通過SSH連接管理NVIDIA Jetson Nano邊緣計算設備的MCP服務器,提供AI工作負載優化、硬件配置和系統管理功能,支持自然語言指令轉換為專業操作命令。
env-mcp 是一個跨平臺的系統信息獲取工具包,支持通過 MCP 協議獲取詳細的硬件、軟件和網絡環境信息。
一個基於FastMCP和vgamepad的Xbox控制器模擬服務器,提供按鈕、搖桿和扳機控制功能,支持硬件和模擬兩種模式。