11月6日,科大訊飛在第八屆世界聲博會暨全球1024開發者節上發佈“訊飛星火X1.5”大模型及系列AI產品,主題爲“更懂你的AI”。董事長劉慶峯通過數據強調AI技術的行業價值。該模型在國內算力平臺完成全鏈路訓練,效率顯著提升,支持130種語言處理。
科大訊飛發佈星飛星火X1.5深度推理大模型,基於國產算力,採用MoE架構,總參數量達293億,激活參數30億。單臺昇騰服務器即可部署,推理效率較X1提升100%,端到端性能達國際水平。
月之暗面發佈並開源Kimi K2Thinking模型,顯著提升智能代理和推理能力。該模型能自主邊思考邊使用工具,無需用戶干預,支持長達300輪工具調用和多輪深度思考,旨在高效處理複雜任務。
科大訊飛發佈星火X1.5深度推理大模型,基於國產算力平臺,技術突破顯著,效率達國際對手93%以上。其亮點在於MoE模型全鏈路訓練效率提升,增強了語言理解與文本處理能力,助力國內開發者提升全球競爭力。
Claude 3.7 Sonnet 是 Anthropic 推出的最新智能模型,支持快速響應和深度推理。
深度搜索結合網絡搜索、閱讀和推理,可進行全面調查,適合複雜問題的迭代推理和最新信息獲取。
Huginn-0125是一個35億參數的潛變量循環深度模型,擅長推理和代碼生成。
展示小型語言模型通過自我演化深度思考掌握數學推理能力的研究成果。
google
$2.16
輸入tokens/百萬
$18
輸出tokens/百萬
1M
上下文長度
minimax
-
anthropic
$21.6
$108
200k
deepseek
$4.03
$15.98
128k
alibaba
$0.72
upstage
65.5k
131.1k
$2.88
tencent
$1
$4
64k
openai
$0.36
400k
baidu
$2
$8
32k
sensetime
$16
$1.08
$1.44
32.8k
perplexity
bytedance
moonshotai
Kimi K2 Thinking 是月之暗面(Moonshot AI)開發的最新一代開源思維模型,具有強大的深度推理能力和工具調用功能。該模型採用混合專家架構,支持原生INT4量化,擁有256k上下文窗口,在多個基準測試中表現出色。
Mungert
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究代理模型,結合了AI反饋強化學習(RLAIF)和強大的推理框架,能夠在工具增強的大語言模型中實現可靠、對齊和可擴展的研究級推理,適用於複雜的多步驟研究工作流程。
thenexthub
OpenModel-1T-A50B-Instruct是NeXTHub開發的萬億參數混合專家模型,結合進化思維鏈訓練方法,在推理能力和能源效率上取得平衡,具備深度推理能力和128K長上下文處理能力。
PokeeAI
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究智能體,結合基於AI反饋的強化學習(RLAIF)與推理框架,能夠執行復雜的多步驟研究工作流程,包括自我修正、驗證和綜合分析。
NexaAI
Qwen3-VL-8B-Thinking是阿里雲Qwen團隊開發的80億參數多模態大語言模型,專為深度多模態推理設計,支持視覺理解、長上下文處理和結構化思維鏈生成,在複雜推理任務中表現出色。
DavidAU
這是一個基於Qwen3-Coder-30B-A3B-Instruct的混合專家模型,擁有540億參數和100萬上下文長度。模型通過三步合併和Brainstorm 40X優化,具備強大的編程能力和通用場景處理能力,特別集成了思考模塊,能夠在回答前進行深度推理。
EpistemeAI
本模型基於GPT-OSS-20B,藉助Unsloth強化學習框架進行微調,旨在優化推理效率,同時減少在從人類反饋中進行強化學習(RLHF)式訓練期間出現的漏洞。微調過程著重於對齊的魯棒性和效率,確保模型在不產生過多計算開銷的情況下保持推理深度。
geoffmunn
這是Qwen/Qwen3-14B語言模型的GGUF量化版本,擁有140億參數,具備深度推理能力、研究級準確性和自主工作流程。經過轉換後可用於llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
DevQuasar
本項目是阿里巴巴通義深度研究30B模型的A3B量化版本,旨在通過量化技術降低模型部署成本,讓知識為每個人所用。該模型基於30B參數規模的大語言模型進行優化,保持了原模型的強大能力同時提升了推理效率。
inclusionAI
Ring-mini-2.0是基於Ling 2.0架構深度優化的高性能推理型MoE模型,僅有160億總參數和14億激活參數,卻實現了與100億規模以下密集模型相當的綜合推理能力。在邏輯推理、代碼生成和數學任務方面表現出色,支持12.8萬長上下文處理和每秒300+令牌的高速生成。
QuantFactory
這是基於llama.cpp對Qwen3-4B-v0.4-deepresearch-no-think-4進行量化處理後的版本,專門針對深度研究場景優化,移除了think機制,採用GGUF格式提供更高效的推理性能。
mlx-community
基於智譜AI GLM-4.5-Air模型轉換的3位深度量化權重(Deep Weight Quantization)版本,專為MLX框架優化,在保持較高性能的同時顯著減少模型大小和推理資源需求
unsloth
Qwen3-4B-Thinking-2507是Qwen3-4B模型的升級版本,顯著提升了思維能力、推理質量和深度,在多種任務中表現出色,支持256K長上下文理解。
基於GLM-4.5-Air模型使用mlx-lm 0.26.1版本轉換的3位深度權重量化版本,專為Apple Silicon芯片優化,提供高效的大語言模型推理能力
Qwen
Qwen3-235B-A22B-Thinking-2507是一款強大的大語言模型,在推理任務、通用能力和長上下文理解等方面有顯著提升,適用於高度複雜的推理場景。該模型在過去三個月裡持續擴展了思維能力,提升了推理的質量和深度。
這是Qwen3-235B-A22B-Instruct-2507模型的4位深度量化(DWQ)版本,專為MLX框架優化。該模型具有2350億參數,經過指令微調,支持多輪對話和複雜推理任務。
Acly
BiRefNet是一個用於二分類圖像分割的深度學習模型,專門用於背景去除任務。該模型經過GGUF格式轉換,可在消費級硬件上通過vision.cpp進行輕量級推理,實現高效的圖像分割處理。
mykor
Mi:dm 2.0 是採用 KT 專有技術開發的'以韓國為中心的 AI'模型,深度內化了韓國社會獨特的價值觀、認知框架和常識推理。
stelterlab
DeepSeek-R1-0528是深度求索公司推出的升級版大語言模型,在推理能力、減少幻覺率等方面有顯著提升,整體性能接近領先模型。
Sci-fi-vy
DeepSeek-R1-0528是DeepSeek R1系列的小版本升級模型,通過增加計算資源和算法優化顯著提升了推理深度和能力,在數學、編程等多個基準測試中表現出色。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的AI模型自動分析查詢複雜度並選擇最佳模型處理請求,支持搜索、推理和深度研究三種工具。
Search1API MCP Server是一個基於Model Context Protocol (MCP)的服務器,提供搜索和爬取功能,支持多種搜索服務和工具。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的AI模型提供自動查詢複雜度檢測和最優模型路由功能,支持搜索、推理和深度研究三種工具。
基於MCP協議的深度推理服務器,為客戶端提供AI深度推理服務
Zen MCP Gemini Transcendent是一個革命性的AI意識協調服務器,通過8階段超驗處理流程實現Claude Code與Google Gemini的和諧協作,具備終極意識引擎、革命性記憶系統和超越傳統MCP的 transcendent 工具,支持多種AI人格原型和無限推理深度,旨在實現意識層面的突破與智慧合成。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的專用AI模型,根據查詢複雜度自動選擇最佳模型進行回答。支持快速搜索、複雜推理和深度研究三種工具,適用於不同複雜度的查詢需求。
該項目是一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(如聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應處理。
Perplexity MCP Server是一個智能研究助手,利用Perplexity的專用AI模型,自動檢測查詢複雜度並將請求路由到最合適的模型以獲得最佳結果。支持搜索、推理和深度研究三種工具,適用於不同複雜度的查詢任務。
一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應整合。