西門子已祕密完成對法國AI初創公司Canopus AI的收購,交易金額約1.5億至3億歐元。此舉旨在爲旗下Calibre晶圓製造軟件引入前沿計算量測技術,強化AI能力,提升半導體制造競爭力。
OpenAI首席財務官透露公司正經歷指數級增長,服務能力與計算資源高度相關。數據中心容量從2023年的0.2GW增至2024年的0.6GW,預計2025年達1.9GW,三年增長9.5倍,算力擴張直接驅動業務發展。
OpenAI發佈提案徵集,旨在提升美國本土AI硬件生產能力,以應對全球AI競爭。公司強調AI生態不僅依賴高性能芯片,還需複雜物理硬件支撐。爲此,OpenAI正招募美國本土製造商與供應商,提供從核心計算硬件到數據中心冷卻系統等關鍵基礎設施組件。
OpenAI與芯片製造商Cerebras達成多年合作,旨在通過專用芯片技術提升AI響應速度。協議總價值超100億美元,Cerebras將在2028年前向OpenAI提供高達750兆瓦的計算能力。
AI模擬人類使用計算機的能力
第三代商用AI移動處理器,為商務用戶帶來前所未有的AI計算能力和多日電池續航。
識廬慧圖提供關聯計算核心能力,通過關聯計算對數據進行連接、分析、計算和推理
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Openai
$7.7
$30.8
200
-
Google
$0.7
$2.8
1k
Anthropic
$21
$105
Baidu
32
Deepseek
$4
$12
128
Tencent
$1
Alibaba
$0.75
256
$8.75
$70
400
$1.75
$14
Iflytek
$2
$0.5
$0.35
131
Huawei
4
$525
$1050
8
inferencerlabs
基於MLX庫實現的文本生成模型,支持多種量化方式推理,具備分佈式計算能力,可在蘋果硬件環境下高效運行。
mlx-community
這是一個基於 Kimi-Linear-48B-A3B-Instruct 模型轉換的 6 位量化版本,專為 Apple MLX 框架優化。該模型保留了原模型強大的指令跟隨能力,同時通過量化技術顯著降低了存儲和計算需求,適合在 Apple 硬件上高效運行。
noctrex
這是慧慧GPT-OSS-120B-BF16-abliterated-v2模型的MXFP4_MOE量化版本,專門針對文本生成任務進行優化,提供高效的文本生成能力。該模型通過量化技術降低了計算和存儲需求,同時保持了良好的性能。
GLM-4.6是基於MLX框架的高效文本生成模型,採用6.5bit量化技術,在保持高質量文本生成能力的同時顯著降低計算資源需求。該模型在單臺M3 Ultra設備上即可運行,支持高效的文本生成任務。
EmbeddingGemma-300m-8bit是基於sentence-transformers庫實現的句子相似度模型,支持以MLX格式運行,專門用於計算句子嵌入和相似度。該模型從原始模型轉換而來,提供高效的文本特徵提取能力。
cpatonn
GLM-4.5V-AWQ-4bit是基於智譜AI下一代旗艦文本基礎模型構建的量化版本多模態模型,通過AWQ-4bit量化技術優化,在保持優異性能的同時顯著降低計算資源需求。該模型在42個公開視覺語言基準測試中達到同規模模型的SOTA性能,具備強大的視覺推理能力。
nvidia
NVIDIA-Nemotron-Nano-9B-v2是NVIDIA從頭訓練的大語言模型,專為推理和非推理任務設計。採用Mamba2-Transformer混合架構,支持多語言處理,具備可控推理能力,允許用戶指定思考預算,在商業應用和AI代理系統中表現出色。
DevQuasar
這是ValiantLabs/gpt-oss-20b-ShiningValiant3模型的量化版本,致力於讓知識為每個人所用。該模型通過量化技術減少了模型大小和計算需求,同時保持了原始模型的文本生成能力。
NexVeridian
這是一個基於OpenAI GPT-OSS-20B模型轉換的4位量化版本,使用mlx-lm 0.26.3工具轉換為MLX格式。模型保持了原版20B參數規模的核心能力,同時通過量化技術顯著降低了計算和存儲需求,適合在資源受限的環境中部署和使用。
tencent
混元是騰訊開源的高效大語言模型系列,專為在各種計算環境中進行多用途部署而設計。從邊緣設備到高併發生產系統,這些模型藉助先進的量化支持和超長上下文能力,都能實現最佳性能。
GLM-4.5-Air-8bit是基於智譜AI的GLM-4.5-Air模型轉換而來的8位量化版本,專門為MLX框架優化。該模型保持了原版強大的自然語言處理能力,同時通過量化技術減少了內存佔用和計算需求,適合在Apple Silicon設備上高效運行。
RedHatAI
專為Qwen/Qwen3-8B設計的推測解碼模型,採用EAGLE-3算法提升文本生成效率和質量,通過多個優質數據集訓練獲得優秀的泛化能力
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升級模型,通過增加計算資源和算法優化顯著提升了推理深度和能力,在數學、編程等多個基準測試中表現出色。
lmstudio-community
基於Transformer架構的圖像文本到文本生成模型,專為計算機/GUI相關場景設計,具備智能代理能力。
cognitivecomputations
DeepSeek-R1-0528是DeepSeek R1模型的小版本升級,通過增加計算資源和算法優化顯著提升了推理能力,在數學、編程和通用邏輯等多個基準評估中表現出色。
tiiuae
Falcon-H1是由阿聯酋技術創新研究所開發的新型大語言模型家族,採用結合Transformer注意力機制和狀態空間模型(SSMs)的混合架構,具備出色的長上下文記憶能力和計算效率。該系列模型提供從0.5B到34B參數的多種配置,在推理、數學、多語言任務等方面表現卓越。
prithivMLmods
Viper-Coder-v1.7-Vsm6是基於千問2.5 14B模態架構設計的大語言模型,專注於提升編碼效率和計算推理能力,優化內存使用並減少冗餘文本生成。
remyxai
SpaceThinker是一款通過測試時計算增強空間推理能力的多模態視覺語言模型,特別擅長定量空間推理和物體關係分析。
首個結合Mamba與Transformer優勢的計算機視覺混合模型,通過重構Mamba公式增強視覺特徵建模效率,在Mamba架構最後幾層引入自注意力模塊提升長程空間依賴建模能力。
MambaVision是首個結合曼巴(Mamba)與Transformer優勢的計算機視覺混合模型,通過重新設計曼巴公式增強視覺特徵建模能力,並在曼巴架構最後幾層加入自注意力模塊提升長距離空間依賴建模能力。
MCP推理器是為Claude Desktop設計的增強推理能力的工具,提供波束搜索和蒙特卡洛樹搜索兩種算法,並新增實驗性策略模擬層以優化複雜問題解決。
MCP Reasoner是為Claude Desktop設計的推理增強工具,提供Beam Search和MCTS兩種搜索策略,通過實驗性算法提升複雜問題解決能力。
阿里雲函數計算MCP服務器項目,支持通過MCP協議將函數計算能力集成到Cursor、Claude等代理應用中,提供快速部署和管理功能。
OpenCV MCP Server是一個基於Python的計算機視覺服務,通過Model Context Protocol (MCP)提供OpenCV的圖像和視頻處理能力。它為AI助手和語言模型提供從基礎圖像處理到高級對象檢測的全套計算機視覺工具,包括圖像處理、邊緣檢測、人臉識別、視頻分析和即時對象跟蹤等功能。
基於MCP協議和SymPy庫的數學計算服務,提供強大的符號計算能力
基於MCP協議和SymPy庫的數學計算服務,提供強大的符號計算能力,包括基礎運算、代數運算、微積分、方程求解、矩陣運算等功能。
一個無需本地部署的MCP服務器,專為處理數學計算而設計,通過簡單配置即可為大型語言模型提供永久準確的數學計算能力。
這是一個為Claude提供高級數學計算能力的MCP服務器,包含符號計算、統計分析和矩陣運算等功能。
一個基於量子場計算模型的Claude多實例協同推理服務器,通過場一致性優化實現增強型AI推理能力。
TOOL4LM是一個為本地語言模型提供多工具支持的MCP服務器,集成了網頁搜索、文檔讀取、學術查詢和計算器等功能,無需默認API密鑰即可增強模型能力。
該項目展示瞭如何在Cloudflare Workers上部署遠程MCP服務器,並實現OAuth登錄功能。支持本地開發調試,可通過MCP Inspector工具或Claude桌面客戶端連接,提供數學計算等工具調用能力。
本項目是一個基於MCP協議的自定義計算器服務器教程,通過Python實現加減乘除功能,並集成到Claude桌面客戶端中擴展AI助手能力。
302AI Basic MCP Server是一個增強大型語言模型基礎能力的工具包,支持動態加載遠程工具列表,提供多種使用模式(本地stdin或遠程HTTP服務),包含Wiki搜索、Arxiv搜索、計算器、代碼執行等實用工具。
DigitalFate是一個企業級框架,用於高效協調LLM調用、智能代理和計算機任務,提供可擴展的生產環境部署、任務導向架構和多客戶端處理能力。
本項目是一個基於MCP協議的自定義計算器服務器教程,通過Python實現加減乘除功能,並與Claude桌面客戶端集成,擴展AI助手的能力。
該項目展示瞭如何在Cloudflare Workers上部署遠程MCP服務器,並實現OAuth登錄功能。支持本地開發調試,可通過MCP Inspector工具或Claude桌面客戶端連接,提供數學計算等工具調用能力,最終可部署至Cloudflare雲端。
該項目演示了基於Model Context Protocol (MCP)的客戶端-服務器基礎交互,通過獨立服務器擴展AI模型能力,提供計算工具調用功能。
該項目展示瞭如何在Cloudflare Workers上部署遠程MCP服務器,並實現OAuth登錄功能。支持本地開發調試,可通過MCP Inspector或Claude桌面應用連接,提供數學計算等工具調用能力。
AI MCP服務器是一個連接AI模型與計算機系統的橋樑,支持執行系統命令、文件操作、程序控制和模型間通信。提供自動化安裝和多種AI模型集成能力。