騰訊自研大模型混元2.0(Tencent HY2.0)正式發佈,與此同時,DeepSeek V3.2也逐步接入騰訊生態。目前,這兩大模型已在元寶、ima等騰訊AI原生應用中率先上線,騰訊雲也同步開放了相關模型的API及平臺服務。 全新發布的Tencent HY2.0採用混合專家(MoE)架構,總參數量高達4
現代汽車在東京機器人展推出AI移動機器人MobED,計劃2026年上半年量產,提供基礎版和專業版。該四輪平臺可適應送貨、登山輔助、視頻拍攝及高爾夫球童等多種任務,展現靈活應用潛力。
Liquid AI 公司於2025年7月發佈第二代 Liquid Foundation Models(LFM2),採用創新的“liquid”架構,旨在成爲市場上最快的設備端基礎模型。其高效的訓練和推理能力使小模型能媲美雲端大型語言模型。LFM2 最初提供350M、700M 和1.2B 參數的密集檢查點版本。
阿里巴巴通義千問團隊在NeurIPS 2025獲最佳論文獎,論文《Attention Gating Makes Better Foundation Models》提出“滑動門”機制,在標準注意力後添加可學習門控,動態篩選關鍵頭和token參與下游計算。實驗證明,1.7B稠密模型性能媲美15B MoE模型。本屆大會投稿2萬篇,錄取率僅25%,競爭激烈,該論文是四篇獲獎作品中唯一中國成果。
適用於Windows和macOS的屏幕錄製工具,可創建精美視頻,操作零門檻。
使用 AI 將寵物照片轉化為精彩的狗狗和貓咪電影。
Monetize.ai可追蹤分析多平臺視頻,助力升級視頻策略
全球首個開源MoE視頻生成模型,支持文本/圖像轉720P視頻
Alibaba
$2
輸入tokens/百萬
-
輸出tokens/百萬
256
上下文長度
Moonshot
$4
$16
Openai
$0.4
128
$0.75
64
Deepseek
$8
32
$5
$20
$10
$30
131
8
$200
$1
262
$32
PrimeIntellect
INTELLECT-3是一個擁有1060億參數的混合專家(MoE)模型,通過大規模強化學習訓練而成。在數學、編碼和推理基準測試中展現出卓越性能,模型、訓練框架和環境均以寬鬆許可協議開源。
Gjm1234
Wan2.2是基礎視頻模型的重大升級版本,專注於將有效MoE架構、高效訓練策略和多模態融合等創新技術融入視頻擴散模型,為視頻生成領域帶來更強大、更高效的解決方案。
ai-sage
GigaChat3-10B-A1.8B是GigaChat系列的對話模型,基於混合專家(MoE)架構,共有100億參數,其中18億為活躍參數。該模型採用多頭潛在注意力和多令牌預測技術,支持25.6萬令牌的長上下文,在多語言對話和推理任務中表現出色。
GigaChat3-10B-A1.8B-base是GigaChat系列的基礎預訓練模型,採用混合專家(MoE)架構,總參數100億,活躍參數18億。模型集成了多頭潛在注意力(MLA)和多令牌預測(MTP)技術,在推理時具備高吞吐量優勢。
bartowski
這是一個基於REAP方法對MiniMax-M2中40%專家進行均勻剪枝得到的139B參數大語言模型,採用GLM架構和專家混合(MoE)技術,通過llama.cpp進行多種量化處理,適用於文本生成任務。
Kiy-K
Fyodor-StarCoder2-7B-MoE是基於StarCoder2-7B的增強版本,採用混合專家架構,擁有3個MoE層、6個專家網絡和top-2路由機制,在代碼生成、函數調用和智能體任務方面表現優異。
NyxKrage
Moondream 3 Preview HF是基於HuggingFace Transformers架構規範對Moondream 3 (Preview)模型的重新實現,使其能夠與Hugging Face生態系統完全兼容。這是一個多模態視覺語言模型,採用專家混合(MoE)文本主幹,約90億參數,20億活躍參數。
DevQuasar
本項目基於 moonshotai/Kimi-K2-Thinking 基礎模型,通過自定義反量化腳本將原始的INT4模型轉換為更高質量的文本生成模型,致力於讓知識為每個人所用。
Leohan
基於MLX庫開發的文本生成模型,專注於自然語言處理任務,為開發者提供高效的文本生成解決方案。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 從 moonshotai 原版模型轉換而來的 MLX 格式大語言模型,採用 mlx-lm 0.28.4 版本進行轉換,保留了原模型的思維鏈推理能力。
這是一個基於Moonshot AI技術的量化版本模型,專注於視覺語言理解與生成任務,致力於降低知識獲取門檻,讓知識為每個人所用。
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)開發的最新一代開源思維模型,具有強大的深度推理能力和工具調用功能。該模型採用混合專家架構,支持原生INT4量化,擁有256k上下文窗口,在多個基準測試中表現出色。
Qwen
Qwen3-VL是通義系列最強大的視覺語言模型,採用混合專家模型架構(MoE),提供GGUF格式權重,支持在CPU、GPU等設備上進行高效推理。模型在文本理解、視覺感知、空間理解、視頻處理等方面全面升級。
OpenMOSS-Team
MOSS-TTSD是一個開源的雙語口語對話合成模型,支持中文和英文,能夠將兩人對話腳本轉化為自然、富有表現力的對話語音,支持語音克隆且單輪語音生成時長最長可達1700秒。
這是基於moonshotai/Kimi-Linear-48B-A3B-Instruct模型轉換的4位量化版本,專為Apple MLX框架優化,提供高效的文本生成能力
unsloth
Qwen3-VL是迄今為止Qwen系列中最強大的視覺語言模型,在文本理解與生成、視覺感知與推理、上下文長度、空間和視頻動態理解以及智能體交互能力等方面都進行了全面升級。該模型採用混合專家(MoE)架構,提供卓越的多模態處理能力。
Qwen3-VL是通義大模型系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力以及出色的智能體交互能力。該模型採用混合專家(MoE)架構,是增強推理的思維版。
Kimi Linear是一種混合線性注意力架構,在各種場景下包括短、長上下文以及強化學習擴展機制中,均優於傳統的全注意力方法。它能有效解決傳統注意力機制在長上下文任務中效率低下的問題,為自然語言處理等領域帶來更高效的解決方案。
Kimi Linear是一種高效混合線性注意力架構,在短上下文、長上下文和強化學習場景中均優於傳統全注意力方法。它通過Kimi Delta Attention (KDA)機制優化注意力計算,顯著提升性能和硬件效率,特別擅長處理長達100萬令牌的長上下文任務。
bullerwins
MiniMax-M2是一款專為最大化編碼和智能體工作流程而構建的小型混合專家(MoE)模型。它擁有2300億總參數,僅激活100億參數,在編碼和智能體任務中表現卓越,同時保持強大的通用智能,具有緊湊、快速且經濟高效的特點。
該項目是一個集成Sonar API的MCP服務器實現,為Claude提供即時網絡搜索能力。包含系統架構、工具配置、Docker部署及多平臺集成指南。
iMCP是一款macOS應用,通過AI連接用戶的數字生活,支持與Claude Desktop等客戶端通過Model Context Protocol (MCP)協議交互,提供日曆、聯繫人、位置、地圖、消息、提醒和天氣等多種功能。
MCP Unity是一個實現Model Context Protocol的Unity編輯器擴展,允許AI助手與Unity項目交互,提供Unity與Node.js服務器之間的橋樑。
MCP Unity是一個實現Model Context Protocol的Unity編輯器擴展,通過Node.js服務器橋接AI助手與Unity項目的交互,提供菜單執行、對象選擇、組件更新等功能。
mcp-golang是一個非官方的Go語言實現的Model Context Protocol庫,支持快速構建MCP服務器和客戶端,提供類型安全、低代碼量、模塊化和雙向通信等特性。
AbletonMCP是一個連接Ableton Live和Claude AI的集成工具,通過Model Context Protocol(MCP)實現雙向通信,讓AI可以直接控制和操作Ableton Live進行音樂創作和製作。
Supabase MCP Server是一個連接Supabase項目與AI助手的工具,通過Model Context Protocol(MCP)標準化大型語言模型(LLMs)與外部服務的交互,實現數據庫管理、配置獲取和數據查詢等功能。
Nx Console是一個為Nx和Lerna monorepo項目提供的可視化界面工具,增強編輯器AI功能,提供項目和工作流管理。
AWS MCP Servers是一套基於Model Context Protocol的專用服務器,提供多種AWS相關功能,包括文檔檢索、知識庫查詢、CDK最佳實踐、成本分析、圖像生成等,旨在通過標準化協議增強AI應用與AWS服務的集成。
MiniMax Model Context Protocol (MCP) 是一個官方服務器,支持與強大的文本轉語音、視頻/圖像生成API交互,適用於多種客戶端工具如Claude Desktop、Cursor等。
Context7 MCP是一個為AI編程助手提供即時、版本特定文檔和代碼示例的服務,通過Model Context Protocol直接集成到提示中,解決LLM使用過時信息的問題。
302AI BrowserUse MCP Server是一個基於AI的瀏覽器自動化服務器,通過Model Context Protocol (MCP)實現自然語言控制瀏覽器和網絡研究。
LINE Bot MCP Server是一個實現Model Context Protocol (MCP)的服務,用於將AI智能體與LINE官方賬號連接,支持推送文本和富媒體消息、廣播消息及獲取用戶資料等功能。
Mobile Next - MCP服務器是一個用於移動自動化的平臺無關接口,支持iOS和Android設備的自動化操作,無需特定平臺知識。
這是一個關於Web3 Model Context Protocol (MCP) 服務器的精選列表,涵蓋了鏈交互、交易、DeFi、市場數據、工具和社交等多個類別。MCP是一個開放協議,標準化了應用程序如何向LLM提供上下文,類似於AI應用程序的USB-C端口。DeMCP是第一個去中心化的MCP網絡,專注於為代理提供自研和開源的MCP服務,支持加密支付,並結合TEE和區塊鏈註冊表重新定義了MCP的安全性和可靠性。
Kubectl MCP Tool 是一個基於 Model Context Protocol (MCP) 的 Kubernetes 交互工具,允許 AI 助手通過自然語言與 Kubernetes 集群進行交互。
GitLab MCP服務器是一個基於Model Context Protocol的項目,提供與GitLab賬戶交互的全面工具集,包括代碼審查、合併請求管理、CI/CD配置等功能。
一個基於Model Context Protocol的Redis數據庫操作服務,提供多種Redis命令工具
一個基於Model Context Protocol (MCP)的B站視頻搜索服務器,提供API接口支持視頻內容搜索、分頁查詢及視頻信息返回,包含LangChain調用示例和測試腳本。
MCP MongoDB服務器是一個模型上下文協議服務,允許LLM與MongoDB數據庫交互,提供集合模式檢查、查詢執行和智能ID處理等功能,支持只讀模式和安全配置。