Liquid AI 公司於2025年7月發佈第二代 Liquid Foundation Models(LFM2),採用創新的“liquid”架構,旨在成爲市場上最快的設備端基礎模型。其高效的訓練和推理能力使小模型能媲美雲端大型語言模型。LFM2 最初提供350M、700M 和1.2B 參數的密集檢查點版本。
阿里巴巴通義千問團隊在NeurIPS 2025獲最佳論文獎,論文《Attention Gating Makes Better Foundation Models》提出“滑動門”機制,在標準注意力後添加可學習門控,動態篩選關鍵頭和token參與下游計算。實驗證明,1.7B稠密模型性能媲美15B MoE模型。本屆大會投稿2萬篇,錄取率僅25%,競爭激烈,該論文是四篇獲獎作品中唯一中國成果。
AWS推出Amazon Bedrock Custom Model Import功能,支持用戶部署20億和120億參數的GPT-OSS開源模型。該功能允許企業將現有應用遷移至AWS平臺,同時保持API兼容性。用戶只需上傳模型文件至Amazon S3,通過控制檯啓動導入,AWS將自動處理GPU配置和推理服務器搭建,簡化部署流程。
vivo在2025開發者大會上發佈藍心3B端側多模態推理大模型。這款30億參數模型是業內首個集成五大核心能力的"One Model",經過一年訓練優化,實現移動設備本地部署複雜多模態AI能力的重大突破,確立行業領先地位。
先進AI將2D圖像秒轉3D模型,首模免費,適用於多領域
使用 Nano Banana API 進行圖片生成與編輯,直接訪問 NanoBanana AI Model API。
Roblox Foundation Model for 3D Intelligence。
一個用於將幾乎所有內容轉換為Markdown格式的Model Context Protocol服務器。
openai
$63
輸入tokens/百萬
$504
輸出tokens/百萬
400k
上下文長度
ModelCloud
這是一個基於MiniMax M2基礎模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具進行量化。該模型專門針對文本生成任務進行了優化,在保持較好性能的同時顯著減少了模型大小和推理資源需求。
nvidia
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,採用優化的Transformer架構,支持多模態輸入(文本和圖像),適用於多種AI應用場景。該模型通過TensorRT Model Optimizer進行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-14B FP4 模型是阿里雲 Qwen3-14B 模型的量化版本,採用優化的 Transformer 架構,是一個自迴歸語言模型。該模型使用 TensorRT Model Optimizer 進行量化,將權重和激活量化為 FP4 數據類型,可在 NVIDIA GPU 加速系統上實現高效推理。
NVIDIA DeepSeek R1 FP4 v2是基於DeepSeek AI的DeepSeek R1模型進行FP4量化的文本生成模型,採用優化的Transformer架構,可用於商業和非商業用途。該模型通過TensorRT Model Optimizer進行量化,相比FP8版本顯著減少了磁盤大小和GPU內存需求。
NVIDIA Qwen3-30B-A3B FP4模型是阿里雲Qwen3-30B-A3B模型的量化版本,採用優化的Transformer架構,是自迴歸語言模型。該模型使用TensorRT Model Optimizer進行FP4量化,將每個參數的比特數從16位減少到4位,使磁盤大小和GPU內存需求減少約3.3倍,同時保持較高的性能表現。
NVIDIA Qwen3-235B-A22B FP4 模型是阿里雲 Qwen3-235B-A22B 模型的量化版本,基於優化的 Transformer 架構,是一個自迴歸語言模型。該模型使用 TensorRT Model Optimizer 進行量化,將權重和激活值量化為 FP4 數據類型,顯著減少了存儲和計算需求。
mykor
A.X 4.0 Light 是由 SKT AI Model Lab 開發的輕量級大語言模型,基於 Qwen2.5 構建,針對韓語理解和企業部署優化。
luisgasco
基於ModernBERT-base微調的模型,在評估集上F1分數為0.3833
ZeroXClem
高性能、多領域AI模型,採用MergeKit的Model Stock融合技術構建,整合了多個精調優化的Qwen3-4B模型,在結構化輸出和技術應用場景中展現出卓越的推理、編程及多步驟問題解決能力。
miscovery
基於編碼器-解碼器架構的多語言變壓器模型,支持文本摘要、翻譯和問答系統任務。
syscv-community
SAM-HQ是Segment Anything Model(SAM)的增強版本,能夠生成更高質量的物體掩碼,特別適合處理複雜結構的物體。
SAM-HQ是Segment Anything Model(SAM)的增強版本,能夠從點或框等輸入提示生成更高質量的對象掩碼。
modelscope
Nexus-Gen是一個將大語言模型的語言推理能力與擴散模型的圖像生成能力相融合的統一模型
mergekit-community
這是一個基於多個12B參數規模模型的合併版本,採用model_stock方法融合了7個不同特性的預訓練語言模型,以增強綜合能力。
spacematt
基於Qwen2.5架構的14B參數規模代碼生成與理解模型,通過Model Stock方法融合多個專業編碼模型而成
DharunSN
基於Stable Diffusion 2.1-base訓練的控制網絡權重,專用於服裝生成任務,支持通過姿態條件圖控制服裝生成
這是一個基於Qwen2.5-14B架構的多模型融合結果,採用Model Stock融合方法,結合了22個不同來源的14B參數規模模型。
nadirzn
該模型是一個基於Transformers庫的模型,具體功能未明確說明。
Miaomiao-13579
這是一個基於擴散模型(Diffusion Model)的無條件圖像生成模型,專門用於生成蝴蝶類別的圖像。
lukajova
這是一個基於擴散模型(Diffusion Model)的無條件圖像生成模型,專門針對蝴蝶圖像進行了微調。
iMCP是一款macOS應用,通過AI連接用戶的數字生活,支持與Claude Desktop等客戶端通過Model Context Protocol (MCP)協議交互,提供日曆、聯繫人、位置、地圖、消息、提醒和天氣等多種功能。
該項目是一個集成Sonar API的MCP服務器實現,為Claude提供即時網絡搜索能力。包含系統架構、工具配置、Docker部署及多平臺集成指南。
MCP Unity是一個實現Model Context Protocol的Unity編輯器擴展,允許AI助手與Unity項目交互,提供Unity與Node.js服務器之間的橋樑。
MCP Unity是一個實現Model Context Protocol的Unity編輯器擴展,通過Node.js服務器橋接AI助手與Unity項目的交互,提供菜單執行、對象選擇、組件更新等功能。
AbletonMCP是一個連接Ableton Live和Claude AI的集成工具,通過Model Context Protocol(MCP)實現雙向通信,讓AI可以直接控制和操作Ableton Live進行音樂創作和製作。
mcp-golang是一個非官方的Go語言實現的Model Context Protocol庫,支持快速構建MCP服務器和客戶端,提供類型安全、低代碼量、模塊化和雙向通信等特性。
Supabase MCP Server是一個連接Supabase項目與AI助手的工具,通過Model Context Protocol(MCP)標準化大型語言模型(LLMs)與外部服務的交互,實現數據庫管理、配置獲取和數據查詢等功能。
AWS MCP Servers是一套基於Model Context Protocol的專用服務器,提供多種AWS相關功能,包括文檔檢索、知識庫查詢、CDK最佳實踐、成本分析、圖像生成等,旨在通過標準化協議增強AI應用與AWS服務的集成。
MiniMax Model Context Protocol (MCP) 是一個官方服務器,支持與強大的文本轉語音、視頻/圖像生成API交互,適用於多種客戶端工具如Claude Desktop、Cursor等。
Context7 MCP是一個為AI編程助手提供即時、版本特定文檔和代碼示例的服務,通過Model Context Protocol直接集成到提示中,解決LLM使用過時信息的問題。
302AI BrowserUse MCP Server是一個基於AI的瀏覽器自動化服務器,通過Model Context Protocol (MCP)實現自然語言控制瀏覽器和網絡研究。
LINE Bot MCP Server是一個實現Model Context Protocol (MCP)的服務,用於將AI智能體與LINE官方賬號連接,支持推送文本和富媒體消息、廣播消息及獲取用戶資料等功能。
這是一個關於Web3 Model Context Protocol (MCP) 服務器的精選列表,涵蓋了鏈交互、交易、DeFi、市場數據、工具和社交等多個類別。MCP是一個開放協議,標準化了應用程序如何向LLM提供上下文,類似於AI應用程序的USB-C端口。DeMCP是第一個去中心化的MCP網絡,專注於為代理提供自研和開源的MCP服務,支持加密支付,並結合TEE和區塊鏈註冊表重新定義了MCP的安全性和可靠性。
Kubectl MCP Tool 是一個基於 Model Context Protocol (MCP) 的 Kubernetes 交互工具,允許 AI 助手通過自然語言與 Kubernetes 集群進行交互。
GitLab MCP服務器是一個基於Model Context Protocol的項目,提供與GitLab賬戶交互的全面工具集,包括代碼審查、合併請求管理、CI/CD配置等功能。
一個基於Model Context Protocol的Redis數據庫操作服務,提供多種Redis命令工具
一個基於Model Context Protocol (MCP)的B站視頻搜索服務器,提供API接口支持視頻內容搜索、分頁查詢及視頻信息返回,包含LangChain調用示例和測試腳本。
iOS模擬器MCP服務器是一個通過Model Context Protocol(MCP)與iOS模擬器交互的工具,支持獲取模擬器信息、控制UI交互和檢查UI元素等功能。
Search1API MCP Server是一個基於Model Context Protocol (MCP)的服務器,提供搜索和爬取功能,支持多種搜索服務和工具。
Smithery CLI是一個用於管理Model Context Protocol (MCP)服務器的命令行工具,支持多種AI客戶端,提供安裝、卸載、查看和運行MCP服務器的功能。