阿里巴巴成立“千問C端事業羣”,整合智能信息與智能互聯業務,由副總裁吳嘉負責,發力消費端AI生態,涵蓋千問APP、夸克、UC瀏覽器、書旗小說等應用及AI硬件。
OpenAI近期因產品命名陷入商標糾紛,其Sora應用中的“cameo”功能及未發佈硬件“io”被指與現有商標過度相似。今年9月,OpenAI在Sora中推出“cameo”功能,允許用戶創建數字分身並生成個性化視頻,助推Sora登上iOS下載榜首。但“cameo”是名人定製視頻平臺Cameo的註冊商標,引發行業關注。
智譜開源AI Agent模型AutoGLM,該模型具備“Phone Use”能力,可穩定完成外賣點單、機票預訂等長達數十步的複雜手機操作。開源後,硬件廠商、手機廠商及開發者可在自有系統中復現能“看懂屏幕”、像真人一樣完成點擊、輸入、滑動等操作的AI助手。目前AutoGLM已支持微信、淘寶、抖音等超過50款高頻中文應用。
Meta收購AI可穿戴設備公司Limitless,其智能吊墜支持語音交互、實時錄音轉錄和語音搜索,旨在提升用戶專注力和記憶力。Limitless團隊將加入Meta開發下一代AI硬件,此前Meta已進行戰略調整。
現代硬件設計的CAD軟件
確保AI可解釋、可審計、安全的硬件解決方案
私有、無審查的AI家用硬件設備
構建最節能的人工智能硬件
Bytedance
$0.8
輸入tokens/百萬
$2
輸出tokens/百萬
128
上下文長度
$0.15
$1.5
256
Alibaba
-
32
Tencent
$1
$3
4
Google
$0.35
$0.7
131
Chatglm
Baidu
$10
bartowski
這是微軟Fara-7B模型的量化版本,使用llama.cpp的imatrix技術進行優化。該模型支持多種量化級別,從高精度的bf16到極低精度的IQ2_M,滿足不同硬件配置和性能需求。
這是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技術進行優化量化處理,提供多種量化級別選擇,適用於不同硬件配置和性能需求。
這是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技術進行量化處理。該版本提供了從BF16到IQ2_S等多種量化級別,滿足不同硬件條件和性能需求的用戶。模型使用特定數據集進行校準優化,支持在線重打包功能以提升在ARM和AVX硬件上的性能。
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
這是allenai的Olmo-3-32B-Think模型的GGUF量化版本,通過llama.cpp工具進行多種量化處理,旨在提升模型在特定環境下的性能和效率。提供了從Q2到Q8的多種量化選項,滿足不同硬件配置和性能需求。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
mradermacher
這是wexyyyyyy/Ru-Gemma3-1B模型的靜態量化版本,支持俄語和英語,專為對話和文本生成任務設計。該模型提供了多種量化版本,適用於不同的硬件配置和性能需求。
MaziyarPanahi
本項目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,這是一個具有思維鏈推理能力的4B參數大語言模型,支持多種量化版本,便於在各種硬件上部署運行。
mratsim
GLM-4.5-Iceblink-v2-106B-A12B-FP8是基於GLM-4.5-Iceblink-v2-106B-A12B模型,採用最先進的混合專家量化方法進行FP8量化的版本。該模型專門針對支持硬件FP8的Ada、Hopper或Blackwell系列GPU優化,在保持高質量輸出的同時顯著提升推理效率。
Diver-GroupRank-7B是一個專門用於段落排序、文本排序、推理和信息檢索的7B參數模型。本版本提供了多種量化格式,適用於不同的硬件和性能需求。
基於AQ-MedAI/Diver-GroupRank-7B模型的靜態量化版本,專門用於段落排序、文本排序、推理和信息檢索等任務。提供了多種量化級別以適應不同的硬件需求。
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 進行量化處理。該模型是一個 1.5B 參數的文本生成模型,支持多種量化級別(2位到8位),便於在各種硬件上高效運行。
這是基於p-e-w發佈的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本進行imatrix量化。提供了多種量化選項以適應不同硬件和性能需求,支持在LM Studio或llama.cpp中運行。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
這是adith-ds/emotion-classifier-v2模型的靜態量化版本,提供了多種GGUF量化格式,適用於情感分類任務。模型經過優化,可在不同硬件環境下高效運行。
本項目提供了Qwen-4B-Instruct-2507-Self-correct模型的靜態量化版本,支持文本生成、偏差緩解、自我修正等任務。該模型基於Qwen-4B架構,經過指令微調和自我修正訓練,提供多種量化版本以適應不同硬件需求。
這是 Manoghn/voicecraft-mistral-7b 模型的靜態量化GGUF版本,基於Mistral-7B架構,專門用於內容生成和文本生成任務。該版本提供了多種量化級別,從2.8GB到14.6GB不等,用戶可以根據硬件條件和性能需求選擇合適的版本。
abr-ai
這是一個由Applied Brain Research(ABR)開發的基於狀態空間模型(SSM)的英文自動語音識別模型,擁有約1900萬參數,能夠高效準確地將英文語音轉錄為文本。該模型在多個基準數據集上表現出色,平均單詞錯誤率僅為10.61%,支持即時語音識別並可在低成本硬件上運行。
ZygAI
ZygAI 是一款專為立陶宛語和英語任務設計的快速本地大語言模型,處於測試階段。它作為輕量級的雙語助手,能夠在本地硬件上即時運行,為用戶提供高效、準確的雙語服務。
這是Precog-123B-v1模型的llama.cpp量化版本,提供了多種量化類型以滿足不同硬件配置和使用場景的需求。該模型是一個擁有1230億參數的大型語言模型,經過優化後可在各種硬件上高效運行。
Awesome MCP Servers 是一個全面的Model Context Protocol (MCP)服務器集合,涵蓋了7158個MCP服務器,分為33個類別,包括AI集成、藝術媒體、瀏覽器自動化、雲服務、數據庫、開發者工具、文件系統、金融、遊戲、硬件、醫療、基礎設施、知識管理、位置地圖、市場營銷、監控、多媒體處理、操作系統、項目管理、科學研究、安全、社交媒體、旅行交通、實用工具和版本控制等。
mcp2mqtt是一個連接物聯網設備與AI大模型的橋樑項目,通過MCP和MQTT協議實現自然語言控制硬件設備。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
一個專業的串口通信MCP服務器,為AI助手提供全面的串口通信能力,支持嵌入式系統、物聯網設備和硬件調試,具有跨平臺支持和多種數據格式處理功能。
一個用於與計算機外設無縫集成的MCP服務器,提供統一的API來控制、監控和管理硬件設備,包括攝像頭、打印機、音頻設備和屏幕。
基於mcp-server的項目,支持AI大模型高效調用spinq的量子計算硬件資源,提供Windows和macOS的一鍵安裝腳本,自動檢測Python環境並安裝依賴。
MCP2Serial是一個連接物理設備與AI大模型的橋樑項目,通過自然語言控制硬件設備,實現物聯網智能化控制。
ESP32 CYD開發板的MCP服務器實現,提供通過WebSocket協議遠程控制顯示屏、觸摸、GPIO、傳感器等硬件功能的完整解決方案。
mcp2tcp是一個連接物理硬件與AI大模型的橋樑項目,通過MCP協議實現自然語言控制硬件設備。
一個專業的嵌入式調試MCP服務器,提供AI助手全面的嵌入式系統調試能力,支持ARM Cortex-M和RISC-V微控制器,與真實硬件集成。
一個輕量級服務器,通過簡單API暴露Mac系統信息,幫助AI助手獲取即時硬件和系統數據,主要用於Mac用戶的AI和深度學習實驗。
IntelliGlow是一個基於MCP協議的AI智能照明控制系統,通過UDP網絡直接控制真實智能燈泡,支持語音命令、AI推理和硬件控制,實現自然語言交互與智能家居的無縫對接。
JetsonMCP是一個通過SSH連接管理NVIDIA Jetson Nano邊緣計算設備的MCP服務器,提供AI工作負載優化、硬件配置和系統管理功能,支持自然語言指令轉換為專業操作命令。
JetsonMCP是一個MCP服務器,通過SSH連接幫助AI助手管理和優化NVIDIA Jetson Nano邊緣計算系統,提供AI工作負載部署、硬件優化和系統管理功能。
env-mcp 是一個跨平臺的系統信息獲取工具包,支持通過 MCP 協議獲取詳細的硬件、軟件和網絡環境信息。
一個基於FastMCP和vgamepad的Xbox控制器模擬服務器,提供按鈕、搖桿和扳機控制功能,支持硬件和模擬兩種模式。
IntelliGlow是一個基於MCP協議的智能照明系統,通過AI助手控制真實智能燈泡,支持語音命令、AI推理和直接硬件控制,實現自然語言交互和智能燈光管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等多種桌面環境,集成OpenAI、Ollama及AMD Ryzen AI硬件加速等多種後端,提供高級UI、上下文功能和對話管理。
KognitiveKompanion是一個現代多功能的AI交互界面,支持KDE等桌面環境,提供與OpenAI、Ollama及AMD Ryzen AI硬件加速的無縫集成。
Opentrons MCP Server是一個為Opentrons機器人自動化提供API文檔和直接控制功能的工具,支持Flex和OT-2型號機器人,包含協議管理、運行控制、硬件操作等功能。