小米MiMo在全球最大AI模型API聚合平臺OpenRouter上登頂全球調用量榜首,成爲首個獲此成就的國產大模型。近一個月,MiMo貢獻1.45萬億Token調用量,在300多個模型中脫穎而出。其端雲協同架構設計帶來高推理效率和低成本,實用性優先的定位獲全球開發者認可。生態上,Nous Research已與小米合作,MiMo系列全面接入增長最快的開源生態。
谷歌更新Gemini API計費結構,新增標準、彈性、優先、批量和緩存版服務檔位,滿足不同推理需求。彈性檔位利用非高峯閒置算力,提供更靈活選擇。
通義實驗室發佈Qwen3.6-Plus模型,聚焦解決智能體編程中“任務執行不穩”問題。該模型通過阿里雲百鍊API開放調用,核心升級在於融合深度邏輯推理、海量記憶與精準執行,顯著提升編碼能力,尤其在前端頁面生成、代碼修復及終端自動化場景表現卓越。
OpenAI發佈GPT-5.4系列模型,包括標準版、專注複雜邏輯的推理版GPT-5.4Thinking及高性能優化版GPT-5.4Pro。其API版本支持100萬個標記的上下文窗口,爲OpenAI史上最大,顯著提升了處理能力和效率。
全球首個全模態推理平臺,統一API接入300+模型,OpenAI兼容
為開發者提供快速的AI平臺,部署、優化和運行200多個LLM和多模型。
結合DeepSeek R1推理能力和Claude創造力及代碼生成能力的統一API和聊天界面。
一個開源的聊天應用,使用Exa的API進行網絡搜索,結合Deepseek R1進行推理。
Openai
$2.8
輸入tokens/百萬
$11.2
輸出tokens/百萬
1k
上下文長度
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
Google
$0.7
$7
$35
$2.1
$17.5
$21
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Moonshot
Bytedance
$0.8
litert-community
這是Qwen2.5-0.5B-Instruct模型的LiteRT優化版本,專門針對移動設備部署進行了優化。該模型提供了多種量化變體,支持在Android設備上通過LiteRT框架和MediaPipe LLM推理API進行高效部署。
基於DeepSeek-R1-Distill-Qwen-1.5B的多個變體,適配LiteRT框架和MediaPipe LLM推理API,可部署於Android平臺。
NexaAI
章魚模型V2是一款20億參數的開源語言模型,專為安卓API優化,採用功能令牌策略提升推理速度和準確性。
stablediffusionapi
SDVN5-3DCuteWave API推理可助力實現文本到超逼真圖像的轉換,為用戶帶來高質量的圖像生成體驗。
這是一個基於MCP協議的搜索意圖分析服務,通過API分析用戶搜索關鍵詞的意圖,提供分類、推理過程和相關建議,主要用於SEO分析。
一個基於Replicate API的FastMCP服務器實現,專注於提供資源化的AI模型推理訪問,特別擅長圖像生成功能。
基於Gemini API的高級推理與反思工具,支持多模型集成與自定義配置
RLM MCP服務器是一個基於遞歸語言模型模式的大規模上下文處理工具,允許Claude代碼通過外部變量處理超過1000萬token的文本,避免直接將海量內容輸入提示詞。它通過加載、分塊、子查詢和聚合的流程,支持自動分析和程序化執行,可連接Claude API或本地Ollama進行免費推理。
搜索意圖分析服務,通過API分析關鍵詞意圖,提供分類、推理及SEO支持
一個基於TypeScript的MCP服務器,提供與Perplexity AI API交互的工具,支持搜索增強查詢和內部推理過程展示。
Perplexity MCP Server是一個用Go編寫的中間件服務器,為AI助手(如Claude和Cursor)提供無縫訪問Perplexity API的能力,包括即時搜索和複雜推理功能。
Deepseek Thinker MCP Server是一個提供Deepseek推理內容的MCP服務,支持OpenAI API和本地Ollama兩種模式,可集成到AI客戶端中。
該項目是一個非官方的Clarifai MCP服務器,作為本地橋樑連接Clarifai API,支持圖像生成、推理和搜索等功能,通過標準MCP協議與客戶端交互。
基於Gemini API的高級推理與反思工具
該項目是一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(如聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應處理。
一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應整合。
AI00 RWKV Server是一個基於RWKV語言模型的高效推理API服務器,支持Vulkan加速和OpenAI兼容接口。
x402engine-mcp是一個為AI代理提供HTTP 402微支付訪問38個按次付費API的MCP服務器,支持使用USDC和USDm進行支付,涵蓋LLM推理、圖像生成、代碼執行、音頻處理、區塊鏈數據等多種服務。