AMD與HPE深化合作,共同推動開放式、可擴展AI基礎設施建設。合作以AMD專爲大規模AI工作負載設計的“Helios”全棧平臺爲基礎,HPE將成爲首批採用該架構的系統提供商之一。同時,HPE將結合與博通合作開發的Juniper網絡交換機,確保AI集羣間的高帶寬、低延遲連接,加速新一代AI基礎設施發展。
WordPress推出實驗性AI開發工具Telex,旨在通過“氛圍編碼”幫助開發者高效生成Gutenberg模塊。該工具已在網站建設中應用,並在年度報告會議上由聯合創始人展示多個實際案例。
Google Photos推出2025年度回顧功能,類似Spotify Wrapped,通過圖形特效和統計數據幫助用戶回顧和分享年度精彩瞬間。首次引入基於Google Gemini大模型的智能高光提取功能,自動識別用戶興趣和代表性記憶,呈現年度主線主題。
麻省理工初創公司OpenAGI推出AI模型Lux,在計算機操作任務中表現超越OpenAI和Anthropic的同類產品,成本僅爲十分之一。該模型通過解析屏幕截圖自動執行桌面應用操作,在Online-Mind2Web基準測試中成功率高達83.6%,顯著優於OpenAI Operator的61.3%。
Marble可讓用戶通過簡單提示創建、編輯和分享高保真3D世界。
通過文本提示生成高質量圖像和視頻的AI工具。
利用我們的卡通人物製作器創建有趣且個性化的卡通形象,上傳您的照片,即可在幾秒鐘內獲得高質量、逼真的卡通形象!
控制您的LinkedIn帳戶並通過單個API即時檢索數據,適用於複雜的自動化、高級推廣和數據收集。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Xai
$1.4
$3.5
2k
Openai
$7.7
$30.8
200
-
$0.7
$2.8
Anthropic
$7
$35
$17.5
$21
$105
Alibaba
$1
$10
256
$2
$20
$4
$16
Bytedance
$1.2
$3.6
4
$8
$240
52
$3.9
$15.2
64
MCG-NJU
SteadyDancer是一個基於圖像到視頻範式的強大動畫框架,專門用於生成高保真且時間連貫的人體動畫。該框架通過穩健的首幀保留機制,有效解決了傳統方法中的身份漂移問題,在視覺質量和可控性上表現出色,同時顯著減少了訓練資源需求。
kyr0
這是一個專為蘋果硅芯片設備優化的自動語音識別模型,通過轉換為MLX框架並量化為FP8格式,實現在蘋果設備上的快速端上語音轉錄。該模型針對逐字精度進行微調,特別適用於需要高精度轉錄的場景。
noctrex
這是對MiroThinker-v1.0-30B模型進行MXFP4_MOE imatrix量化的版本,基於mradermacher的imatrix實現。該量化模型保持了原模型的文本生成能力,同時通過量化技術提高了推理效率,適用於需要高效文本生成的各種應用場景。
OpenMMReasoner
OpenMMReasoner是一個完全透明的兩階段多模態推理方案,涵蓋有監督微調(SFT)和強化學習(RL)。該方案通過精心構建高質量數據集,在多個多模態推理基準測試中超越了強大的基線模型,為未來大規模多模態推理研究奠定了堅實的實證基礎。
onnx-community
SAM3是基於概念的任意分割模型,能夠根據輸入的點、框等提示信息生成精確的圖像分割掩碼。該版本是ONNX格式的SAM3跟蹤器模型,通過Transformers.js庫可在瀏覽器環境中高效運行。
這是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一個內存高效的壓縮模型。通過REAP(路由加權專家激活剪枝)方法,在保持性能的同時將模型從230B參數壓縮到172B參數,體積縮小25%,適用於資源受限的環境、本地部署和學術研究。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUF是基於quanhaol/Wan2.2-TI2V-5B-Turbo基礎模型轉換而來的圖像轉視頻模型,經過優化可在4GB GPU上運行,具有出色的通用性和高效推理能力。
magiccodingman
這是一個基於Qwen3 4B模型的混合量化版本,採用MXFP4_MOE混合權重技術,在保持近乎無損精度的同時實現了更小的文件大小和更高的推理速度。該模型通過精心組合MXFP4和高精度嵌入/輸出權重,達到了接近Q8量化的精度水平,同時具備Q4-Q6級別的吞吐量。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基於百度ERNIE-4.5架構的多模態大語言模型,通過AWQ量化技術實現8位精度,在保持高性能的同時大幅降低內存需求。該模型在視覺推理、STEM問題解決、圖像分析等方面表現出色,具備強大的多模態理解和推理能力。
這是 aquif-3.5-Plus-30B-A3B 模型的 MXFP4_MOE 量化版本,通過量化技術顯著降低了模型資源佔用,同時保持了相近的性能表現,具有較高的工程實踐價值。
kirankumarpetlu
這是一個基於Google Gemma-2B-IT基礎模型,使用PEFT(參數高效微調)和LoRA技術進行優化的文本生成模型。該模型通過參數高效的方法在保持基礎模型能力的同時,針對特定任務進行了優化。
這是一個基於Qwen3-VL-30B的量化版本模型,專門用於圖像文本到文本的轉換任務。該模型通過量化技術優化了原始模型,提供了更高效的推理解決方案。
這是慧慧Qwen3-VL-8B思維消融模型的量化版本,基於Qwen3-VL-8B架構,專門針對圖像文本轉換任務進行了優化和量化處理,可通過llama.cpp工具高效運行。
unsloth
MiniMax-M2是一款專為最大化編碼和智能體工作流程而構建的小型混合專家模型,總參數達2300億,激活參數為100億。該模型在編碼和智能體任務中表現卓越,同時保持強大的通用智能,具有緊湊、快速且經濟高效的特點。
mlx-community
這是一個基於 Kimi-Linear-48B-A3B-Instruct 模型轉換的 6 位量化版本,專為 Apple MLX 框架優化。該模型保留了原模型強大的指令跟隨能力,同時通過量化技術顯著降低了存儲和計算需求,適合在 Apple 硬件上高效運行。
SadraCoding
SDXL-Deepfake-Detector 是一款精準檢測 AI 生成人臉的工具,專注於維護數字世界的真實性,為抵禦視覺虛假信息提供隱私保護且開源的解決方案。該模型通過微調預訓練模型實現輕量級且高準確率的檢測。
Qwen
Qwen3-VL是通義系列最強大的視覺語言模型,採用混合專家模型架構(MoE),提供GGUF格式權重,支持在CPU、GPU等設備上進行高效推理。模型在文本理解、視覺感知、空間理解、視頻處理等方面全面升級。
Qwen3-VL是通義系列中最強大的視覺語言模型,具備出色的文本理解和生成能力、深入的視覺感知和推理能力、長上下文支持、強大的空間和視頻動態理解能力,以及智能體交互能力。本倉庫提供GGUF格式權重,支持在CPU、GPU等設備上高效推理。
Qwen3-VL-2B-Instruct-GGUF是通義千問系列的多模態視覺語言模型的GGUF量化版本,具備20億參數,支持圖像理解和文本生成的無縫融合,可在CPU、GPU等設備上高效運行。
moonshotai
Kimi Linear是一種高效混合線性注意力架構,在短上下文、長上下文和強化學習場景中均優於傳統全注意力方法。它通過Kimi Delta Attention (KDA)機制優化注意力計算,顯著提升性能和硬件效率,特別擅長處理長達100萬令牌的長上下文任務。
hyper-mcp是一個基於WebAssembly插件的高性能MCP服務器,支持通過容器註冊表分發插件,適用於多種AI應用場景。
Eino是一個專為Golang設計的LLM應用開發框架,旨在通過簡潔、可擴展、可靠且高效的組件抽象和編排能力,簡化AI應用開發流程。它提供豐富的組件庫、強大的圖形編排功能、完整的流處理支持以及高度可擴展的切面機制,覆蓋從開發到部署的全週期工具鏈。
一個用於通過SQL查詢蘋果健康數據的MCP服務器,基於DuckDB實現高效分析,支持自然語言查詢和自動報告生成。
一個基於Python的MCP服務器,通過Notion API提供高級待辦事項管理和內容組織功能,實現AI模型與Notion的無縫集成。
Jinni是一個高效為大型語言模型提供項目上下文的工具,通過整合相關文件及其元數據,克服逐個文件讀取的限制。
Google Workspace MCP服務器是一個功能全面的多客戶端協議服務器,通過自然語言控制Google日曆、雲端硬盤、Gmail、文檔等全套辦公套件,支持一鍵安裝到Claude桌面端,提供高級OAuth認證和服務緩存。
GPT Researcher MCP Server是一個基於MCP協議的AI研究服務器,能夠通過深度網絡搜索和驗證,為LLM應用提供高質量、優化的研究結果。
基於多智能體系統(MAS)的高級順序思維處理工具,通過協調多個專業代理進行深度分析和問題分解
Solana-MCP是一個基於Solana區塊鏈的全鏈操作平臺,通過自然語言命令簡化用戶與Solana生態的交互,支持DApp集成、數字資產管理、DeFi操作等功能,利用LLM技術和智能合約實現高效安全的鏈上操作。
該項目實現了一個基於Model Context Protocol (MCP)的文檔檢索服務器,能夠為AI助手動態獲取Python庫的最新官方文檔內容。支持LangChain、LlamaIndex和OpenAI等庫,通過SERPER API進行高效搜索,並使用BeautifulSoup解析HTML內容。項目設計可擴展,便於添加更多庫的支持。
Deep Research MCP 是一個基於Model Context Protocol (MCP) 的服務器項目,旨在通過Tavily的搜索和爬取API進行全面的網絡研究,並將數據整合為結構化的Markdown文檔,以支持大型語言模型(LLM)的高質量內容生成。
Google Scholar MCP Server是一個通過模型上下文協議(MCP)為AI助手提供訪問Google Scholar學術論文的接口服務。它支持關鍵詞搜索、高級檢索和作者信息查詢功能,幫助AI模型獲取學術論文元數據。
Electron調試MCP服務器是一個連接模型上下文協議(MCP)與Electron應用的橋樑,提供通過標準化API進行高級調試的能力,深度集成了Chrome開發者工具協議(CDP)以實現高級調試功能。
智慧鍛造是一個強大的知識管理系統,通過Qdrant向量數據庫高效存儲和檢索經驗、見解與最佳實踐。
DiffuGen是一個先進的本地圖像生成工具,集成了MCP協議,支持多種AI模型(包括Flux和Stable Diffusion系列),可直接在開發環境中生成高質量圖像。它提供了靈活的配置選項、多GPU支持,並可通過MCP協議與多種IDE集成,同時提供OpenAPI接口供外部調用。
一個簡易的MCP Server示例項目,通過高德天氣API和釘釘機器人實現天氣查詢與消息推送功能
LumenX-MCP是一個開源的企業級法律支出智能服務器,通過統一多源數據(如電子賬單平臺、ERP系統等)提供可查詢的智能分析服務,支持AI集成與高性能數據訪問。
FortunaMCP是一個基於硬件熵的高性能隨機數生成服務器,通過多種統計分佈模型為AI應用提供真實不可預測的隨機值,適用於模擬仿真和遊戲場景。
InsightFlow是一個結合即時數據處理與AI智能分析的先進分析平臺,通過Model Context Protocol(MCP)實現高級AI能力,並與Claude AI無縫集成,提供智能數據分析和決策支持。
Sequential Thinking MCP是一個支持AI代理進行高級元認知和動態反思問題解決的MCP服務器,通過虛擬記錄思維和計劃來指導複雜任務的分步執行。