11月6日,科大訊飛在第八屆世界聲博會暨全球1024開發者節上發佈“訊飛星火X1.5”大模型及系列AI產品,主題爲“更懂你的AI”。董事長劉慶峯通過數據強調AI技術的行業價值。該模型在國內算力平臺完成全鏈路訓練,效率顯著提升,支持130種語言處理。
科大訊飛發佈星飛星火X1.5深度推理大模型,基於國產算力,採用MoE架構,總參數量達293億,激活參數30億。單臺昇騰服務器即可部署,推理效率較X1提升100%,端到端性能達國際水平。
我國發布全球首個端到端AI海洋大模型“瞰海”,實現衛星觀測到三維預測全鏈路閉環,可實時重構海況並精準預演未來10天海洋環境變化,爲科研與防災提供“數字海洋鏡像”。
美團LongCat團隊推出UNO-Bench基準測試,系統評估多模態模型能力。該基準覆蓋44種任務類型和5種模態組合,包含1250個全模態樣本(跨模態可解性98%)及2480個增強單模態樣本,全面測試模型在單模態與全模態場景下的性能表現。
基於Tongyi Wan 2.2 Plus模型,可快速生成高質量AI視頻,功能強大
SQLBot 是一款基於大模型和 RAG 的智能問數系統。
企業級 LLM 平臺,提供統一 API 和智能路由。
使用Scorecard簡單構建和測試LLM應用,提供可預測且不斷改進的AI體驗。
openai
$14.4
輸入tokens/百萬
$57.6
輸出tokens/百萬
200k
上下文長度
$7.92
$31.68
alibaba
$0.72
128k
$108
$432
$2.16
moonshotai
$4.1
$16.56
xai
$21.6
1M
google
$18
deepseek
-
anthropic
nvidia
upstage
64k
meta
$1.22
$4.32
mistral
tencent
32k
$0.36
$2.88
400k
$540
noctrex
Aquif-3.5-Max-42B-A3B是一個420億參數的大型語言模型,經過MXFP4_MOE量化處理,在保持高質量文本生成能力的同時優化了推理效率。該模型基於先進的混合專家架構,適用於多種自然語言處理任務。
bartowski
Apollo-V0.1-4B-Thinking是基於4B參數的大語言模型,採用思維鏈推理架構,專門針對推理任務優化。該模型提供了多種量化版本,可在不同硬件環境下高效運行。
unsloth
Qwen3-VL是通義系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力以及出色的智能體交互能力。
Qwen3-VL-32B-Thinking是Qwen系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文處理、空間和視頻動態理解能力,以及出色的智能體交互能力。
Qwen3-VL-8B-Thinking是通義千問系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力,以及出色的智能體交互能力。
Qwen3-VL是通義系列中最強大的視覺語言模型,在文本理解與生成、視覺感知與推理、上下文長度、空間和視頻動態理解以及智能體交互能力等方面全面升級。該模型提供密集架構和混合專家架構,支持從邊緣設備到雲端的靈活部署。
Qwen3-VL是Qwen系列中最強大的視覺語言模型,實現了全方位的綜合升級,包括卓越的文本理解與生成能力、更深入的視覺感知與推理能力、更長的上下文長度、增強的空間和視頻動態理解能力,以及更強的智能體交互能力。
catalystsec
本項目對MiniMax-M2模型進行4位量化處理,使用DWQ(動態權重量化)方法,藉助mlx-lm庫達成。該模型是MiniMax-M2的輕量化版本,在保持較好性能的同時大幅減小模型體積。
MiniMax-M2是一款專為最大化編碼和智能體工作流程而構建的小型混合專家模型,總參數達2300億,激活參數為100億。該模型在編碼和智能體任務中表現卓越,同時保持強大的通用智能,具有緊湊、快速且經濟高效的特點。
mlx-community
這是一個基於 Kimi-Linear-48B-A3B-Instruct 模型轉換的 6 位量化版本,專為 Apple MLX 框架優化。該模型保留了原模型強大的指令跟隨能力,同時通過量化技術顯著降低了存儲和計算需求,適合在 Apple 硬件上高效運行。
GilbertAkham
這是一個基於DeepSeek-R1-Distill-Qwen-1.5B的多任務微調模型,通過LoRA適配器在多個數據集上進行訓練,具備強大的多任務泛化和推理能力,能夠處理廣泛的自然語言和基於推理的任務。
Qwen3-VL是Qwen系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力,以及出色的智能體交互能力。該版本為2B參數的思考增強版,專門優化了推理能力。
Qwen
Qwen3-VL是通義系列最強大的視覺語言模型,採用混合專家模型架構(MoE),提供GGUF格式權重,支持在CPU、GPU等設備上進行高效推理。模型在文本理解、視覺感知、空間理解、視頻處理等方面全面升級。
Mungert
gpt-oss-safeguard-20b是基於GPT-OSS-20b微調的安全推理模型,專門用於大語言模型輸入輸出過濾、在線內容標註以及信任與安全用例的離線標註。該模型採用Apache 2.0許可證,支持自定義策略和透明決策過程。
Qwen3-VL-30B-A3B-Instruct是通義系列中最強大的視覺語言模型,採用混合專家模型架構,具備出色的文本理解與生成能力、深入的視覺感知與推理能力,支持256K長上下文和視頻理解,可在多種設備上進行推理。
這是英偉達Qwen3-Nemotron-32B-RLBFF大語言模型的GGUF量化版本,使用llama.cpp工具進行多種精度量化,提供從BF16到IQ2_XXS共20多種量化選項,適用於不同硬件配置和性能需求。
shorecode
這是一個高效的文本摘要模型,專門設計用於壓縮大語言模型提示中的文本內容,能夠實現7倍以上的壓縮率,顯著降低API調用成本。
BAAI
Emu3.5是北京智源人工智能研究院開發的原生多模態模型,能夠跨視覺和語言聯合預測下一狀態,實現連貫的世界建模和生成。通過端到端預訓練和大規模強化學習後訓練,在多模態任務中展現出卓越性能。
OPPOer
基於Qwen-Image-Edit進行模型剪枝的版本,移除了20層,保留40層權重,最終模型大小為13.6B參數。這是一個圖像編輯模型,支持多圖像輸入和文本引導的圖像合成與編輯。
Qwen3-VL-2B-Thinking是Qwen系列中最強大的視覺語言模型之一,採用GGUF格式權重,支持在CPU、NVIDIA GPU、Apple Silicon等設備上進行高效推理。該模型具備出色的多模態理解和推理能力,特別增強了視覺感知、空間理解和智能體交互功能。
HiveChat是一個專為中小團隊設計的AI聊天應用,支持多種大模型服務商,提供分組管理、Token限額、第三方登錄等功能。
Supabase MCP Server是一個連接Supabase項目與AI助手的工具,通過Model Context Protocol(MCP)標準化大型語言模型(LLMs)與外部服務的交互,實現數據庫管理、配置獲取和數據查詢等功能。
LLM Context是一個幫助開發者快速將代碼/文本項目內容注入大型語言模型聊天界面的工具,支持智能文件選擇和多種集成方式。
Jinni是一個高效為大型語言模型提供項目上下文的工具,通過整合相關文件及其元數據,克服逐個文件讀取的限制。
MCPEngine是一個生產級的Model Context Protocol (MCP)實現,為大型語言模型(LLM)提供標準化接口,支持OAuth認證、資源管理、工具調用等功能,旨在成為'LLM界的REST'框架。
WireMCP是一個為大型語言模型(LLM)提供即時網絡流量分析能力的MCP服務器,通過Wireshark工具捕獲和處理網絡數據,支持威脅檢測、網絡診斷和異常分析。
一個基於Swift實現的知識圖譜記憶服務器,為大型語言模型提供持久化記憶功能
Rails MCP Server是一個基於Ruby實現的Model Context Protocol服務器,為Rails項目提供與大型語言模型交互的標準接口。
為大模型提供A股數據的MCP服務
WireMCP是一個為大型語言模型(LLM)提供即時網絡流量分析能力的MCP服務器,通過集成Wireshark工具實現數據捕獲、威脅檢測和網絡診斷。
GhidrAssistMCP是一個強大的Ghidra擴展,通過實現模型上下文協議(MCP)服務器,使AI助手和其他工具能夠通過標準化API與Ghidra的反向工程功能交互。
MCP2Lambda是一個將AWS Lambda函數作為大型語言模型(LLM)工具運行的MCP協議服務器,無需修改代碼即可讓AI模型調用Lambda函數訪問私有資源和AWS服務。
Kubernetes MCP服務器是一個強大的Kubernetes模型上下文協議實現,支持Kubernetes和OpenShift集群操作,無需依賴外部工具即可執行各種資源管理任務。
MCP2Lambda是一個MCP服務器,允許將AWS Lambda函數作為大型語言模型(LLM)的工具使用,無需修改代碼。它通過Model Context Protocol (MCP)在AI模型和Lambda函數之間建立橋樑,使模型能夠訪問私有資源和執行自定義操作。
Alpaca MCP服務器是一個實現Alpaca交易API的模型上下文協議(MCP)服務,允許大型語言模型通過自然語言與Alpaca交易系統交互,支持股票/期權交易、投資組合管理和即時市場數據獲取。
Netskope NPA MCP Server是一個通過大型語言模型管理Netskope網絡私有訪問基礎設施的協議服務器,提供50多種工具進行配置管理。
一個基於Python的Model Context Protocol (MCP)服務器模板,用於創建標準化的大型語言模型(LLM)上下文服務。
該項目是一個基於Model Context Protocol (MCP)標準的文檔處理服務器,通過構建向量數據庫和MCP接口,使AI助手能夠訪問外部文檔資源,突破大語言模型的知識限制。項目包含文檔處理流水線和MCP服務端兩大組件,支持多種嵌入模型和文件格式,可應用於最新技術文檔查詢、私有代碼庫理解等場景。
MCP開發框架是一個用於創建與大語言模型交互自定義工具的強大框架,提供文件處理、網頁內容獲取等功能,支持PDF、Word、Excel等多種格式,具有智能識別、高效處理和內存優化等技術特點。
PlayFab MCP Server是一箇中間件,使大型語言模型能夠直接與PlayFab服務交互,實現數據查詢和管理功能。