雷神科技憑藉“AI+全球化”戰略驅動增長,股價逆勢上漲3.66%。公司2025年第三季度營收達22.86億元,同比增長13.90%,在高性能計算領域保持強勁競爭力。
DEEPX與神州數碼合作,利用高性能低功耗芯片技術,加速物理AI在中國市場應用,填補高性能與超低功耗之間的市場空白。
全球科技巨頭正掀起AI基礎設施“燒錢大戰”,亞馬遜、谷歌、Meta和微軟預計2026年資本支出將達6600億美元,主要用於建設數據中心、購買高性能芯片和研發定製硬件。
OpenRouter平臺近日上線代號“Pony Alpha”的免費模型,性能強大,支持200K上下文窗口和131K輸出令牌,在編碼、推理等方面表現突出,引發業界關注。
一站式 AI API 接入頂級模型,快速集成,節省成本,高性能且開發者友好。
高性能郵件驗證服務,99.9%準確率,減少退信,保護髮件人聲譽。
一個API連接所有頂尖AI模型,高性能且性價比高,支持多類型生成。
Devstral 2開源編碼模型及Mistral Vibe CLI,高效解決軟件工程任務
Openai
$2.8
輸入tokens/百萬
$11.2
輸出tokens/百萬
1k
上下文長度
Anthropic
$7
$35
200
Google
$2.1
$17.5
$21
$105
Alibaba
$1
$10
256
$4
$16
Baidu
-
128
$1.6
$0.4
$1.75
$14
400
$15
Huawei
32
Chatglm
Tencent
$0.8
$2
$0.3
tencent
混元視頻-1.5是一款輕量級高性能視頻生成模型,僅用83億參數就能提供頂級的視頻質量,顯著降低了使用門檻。它能在消費級GPU上流暢運行,支持文本到視頻和圖像到視頻生成,讓每個開發者和創作者都能輕鬆使用。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基於百度ERNIE-4.5架構的多模態大語言模型,通過AWQ量化技術實現8位精度,在保持高性能的同時大幅降低內存需求。該模型在視覺推理、STEM問題解決、圖像分析等方面表現出色,具備強大的多模態理解和推理能力。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微調版本,由 TheStage AI 針對多平臺即時、低延遲和低功耗語音轉文本推理進行優化。支持流式轉錄、單詞時間戳和可擴展性能,適用於即時字幕、會議和設備端語音界面等場景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微調版本,由TheStage AI針對多平臺(NVIDIA GPU和Apple Silicon)的即時、低延遲和低功耗語音轉文本推理進行了優化。
richardyoung
這是一個高性能的4位量化版本的Kimi K2 Instruct模型,專為使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上運行而優化。該模型擁有6710億參數,支持128K上下文窗口,在質量和效率之間實現了出色的平衡,是大多數實際部署的理想選擇。
Daemontatox
Zirel-3是基於GLM-4.5-Air-REAP-82B-A12B的特定微調模型,採用REAP(路由加權專家激活剪枝)技術壓縮的820億參數混合專家模型,在保持高性能的同時顯著減少模型體積。
lightx2v
基於LoRA的4步推理高性能視頻生成模型,從Wan2.2蒸餾模型中提取的LoRA權重,具備靈活部署、存儲高效和出色生成質量的特點
bullpoint
GLM-4.6-AWQ是對智譜AI的GLM-4.6(357B MoE)進行高性能AWQ量化的模型,專為vLLM推理進行了優化,能有效提升生產部署的吞吐量。該模型採用4位量化技術,在保持高精度的同時顯著減少顯存佔用。
codeintegrity-ai
ModernBERT PromptGuard是一個高性能二分類器,專門用於檢測大語言模型應用中的惡意提示,包括提示注入和越獄攻擊。
VLA-Adapter
VLA-Adapter是一種在Libero-Spatial上訓練的微型視覺語言動作模型,採用Prismatic-VLM架構,僅使用Qwen2.5-0.5B作為大語言模型主幹。該模型在機器人基準測試中超越了參數規模更大的開源VLA模型,實現了高性能的視覺-語言-動作理解與執行。
kikekewl
MLX是基於Qwen/Qwen3-Next-80B-A3B-Thinking基礎模型構建的文本生成庫,專注於高效推理和文本生成任務。該模型採用先進的架構設計,支持大規模參數下的高性能文本處理。
基於MLX庫優化的文本生成模型,採用Qwen/Qwen3-Next-80B-A3B-Instruct基礎模型,使用bf16數據類型進行優化,專注於高效文本生成任務,為相關領域開發提供高性能支持。
cpatonn
Qwen3-Next-80B-A3B-Instruct-AWQ-4bit是基於Qwen3-Next-80B-A3B-Instruct模型進行4位AWQ量化的高效版本。該模型採用混合注意力機制和高稀疏專家混合架構,支持長達262K tokens的上下文長度,在保持高性能的同時大幅降低計算資源需求。
dinhquangson
MonkeyOCR-pro-1.2B Vision GGUF 是一款高性能的視覺語言模型,專注於光學字符識別(OCR)和文檔分析。該模型採用GGUF格式,支持多語言處理,具備出色的OCR精度和推理速度,適用於各種文檔處理場景。
unsloth
NVIDIA Nemotron Nano 9B v2 是 NVIDIA 開發的一款高性能大語言模型,採用 Mamba2-Transformer 混合架構,支持多語言推理和聊天任務,在多個基準測試中表現優異,特別支持運行時'思考'預算控制功能。
inclusionAI
Ring-mini-2.0是基於Ling 2.0架構深度優化的高性能推理型MoE模型,僅有160億總參數和14億激活參數,卻實現了與100億規模以下密集模型相當的綜合推理能力。在邏輯推理、代碼生成和數學任務方面表現出色,支持12.8萬長上下文處理和每秒300+令牌的高速生成。
Kwai-Klear
Klear是由快手Kwai-Klear團隊開發的稀疏混合專家(MoE)大語言模型,具備高性能和推理效率的特點。總參數460億,激活參數僅25億,在多個能力基準測試中表現出色,為實際應用提供了高效且強大的解決方案。
DevQuasar
本項目提供騰訊混元-MT-7B大語言模型的量化版本,通過模型壓縮技術降低計算和存儲需求,致力於讓知識為每個人所用,使高性能AI模型更加普及和易用。
2imi9
GPT-OSS-20B-NVFP4 是 OpenAI GPT-OSS-20B 模型的量化版本,採用 NVIDIA 先進的 NVFP4 量化格式。該模型在保持顯著內存效率提升的同時,相比 MXFP4 量化能提供更出色的準確率保留率,專為高性能推理場景設計。
brandonbeiler
這是OpenGVLab/InternVL3_5-8B的fp8動態(w8a8)量化版本,針對vLLM高性能推理進行了優化。採用FP8動態量化技術,在保持視覺理解能力的同時顯著減少內存佔用並提升推理速度。
Scrapling是一個自適應網頁抓取庫,能自動學習網站變化並重新定位元素,支持多種抓取方式和AI集成,提供高性能解析和開發者友好體驗。
Solon是一個高效、開放、生態友好的Java企業級應用開發框架,支持全場景開發,具有高性能、低內存消耗、快速啟動和小體積打包等特點,兼容Java8至Java24及GraalVM原生運行時。
hyper-mcp是一個基於WebAssembly插件的高性能MCP服務器,支持通過容器註冊表分發插件,適用於多種AI應用場景。
XiYan MCP Server是一個基於XiYan-SQL的模型上下文協議服務器,支持通過自然語言查詢數據庫,提供多種LLM模型配置和數據庫連接方式,適用於本地或遠程部署。
ht-mcp是一個用Rust實現的高性能無頭終端MCP服務器,支持多會話管理和Web界面預覽。
MCpp Server是一個用C++編寫的高性能Minecraft服務器,旨在提供快速、高效的遊戲體驗,同時保持與Java客戶端的兼容性。
基於Fastify框架的高性能MCP服務端項目
Kubernetes MCP服務器是一個提供安全只讀訪問Kubernetes資源的工具,用於調試和檢查集群狀態。支持多集群切換、CRD資源和智能資源發現,強調安全性和高性能。
FAL圖像視頻MCP服務器是一個高性能的MCP協議服務器,專門用於FAL AI的圖像和視頻生成,支持自動下載到本地機器。它提供了公共URL、數據URL和本地文件路徑,適用於Claude等MCP兼容客戶端。
一個高性能的SQLite MCP服務器,採用創新的Codemode代碼生成方法,使LLM通過生成Go代碼執行數據庫操作,相比傳統工具調用顯著提升效率和降低延遲。
Xcatcher是一個基於遠程MCP協議的高性能X(Twitter)數據爬取服務,支持通過x402協議使用USDC在Base和Solana鏈上進行按需付費,提供OpenAPI規範便於AI代理集成,專注於大規模用戶最新帖子的快速採集。
一個高性能的Python版MCP服務器實現,專注於內存優化和基礎設施組件追蹤,支持Claude Desktop集成,但因規範問題已歸檔。
企業級MCP服務器,集成ServiceNow和工作流管理,提供健康監控和FastAPI高性能後端。
一個基於Cloudflare Workers的無服務器YouTube字幕提取服務,採用MCP協議實現高性能AI助手集成
LumenX-MCP是一個開源的企業級法律支出智能服務器,通過統一多源數據(如電子賬單平臺、ERP系統等)提供可查詢的智能分析服務,支持AI集成與高性能數據訪問。
Rust MCP SDK 是一個高性能、異步的工具包,用於構建 MCP(Model Context Protocol)服務器和客戶端。它簡化了開發流程,讓開發者能專注於應用邏輯,同時提供強大的功能和一致性保障。
企業級高性能MCP服務器,支持Wasm和Rust,為LLM提供工具、資源和流程提示的集成平臺。
一個用Go實現的高性能Trino MCP服務器,支持AI助手通過標準化MCP工具與Trino分佈式SQL查詢引擎交互。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
Rust MCP Filesystem 是一個基於 Rust 的高性能、異步輕量級 MCP 服務器,專為高效處理文件系統操作而設計,提供安全的只讀默認設置、高級全局搜索和嵌套目錄支持。