11月6日,科大訊飛在第八屆世界聲博會暨全球1024開發者節上發佈“訊飛星火X1.5”大模型及系列AI產品,主題爲“更懂你的AI”。董事長劉慶峯通過數據強調AI技術的行業價值。該模型在國內算力平臺完成全鏈路訓練,效率顯著提升,支持130種語言處理。
科大訊飛發佈星飛星火X1.5深度推理大模型,基於國產算力,採用MoE架構,總參數量達293億,激活參數30億。單臺昇騰服務器即可部署,推理效率較X1提升100%,端到端性能達國際水平。
科大訊飛發佈星火X1.5深度推理大模型,基於國產算力平臺,技術突破顯著,效率達國際對手93%以上。其亮點在於MoE模型全鏈路訓練效率提升,增強了語言理解與文本處理能力,助力國內開發者提升全球競爭力。
火山引擎發佈豆包大模型1.6-vision,這是該家族首個具備工具調用能力的視覺深度思考模型。它增強了多模態理解和推理能力,支持Responses API,核心優勢包括通過工具調用實現精準視覺理解,能將圖像融入思維鏈,支持定位、剪裁、點選等圖像操作功能。
alibaba
$0.72
輸入tokens/百萬
$2.16
輸出tokens/百萬
128k
上下文長度
openai
$0.36
$2.88
400k
sensetime
$4
$16
200k
Mungert
PokeeResearch-7B是由Pokee AI開發的70億參數深度研究代理模型,結合了AI反饋強化學習(RLAIF)和強大的推理框架,能夠在工具增強的大語言模型中實現可靠、對齊和可擴展的研究級推理,適用於複雜的多步驟研究工作流程。
NexaAI
Qwen3-VL-8B-Thinking是阿里雲Qwen團隊開發的80億參數多模態大語言模型,專為深度多模態推理設計,支持視覺理解、長上下文處理和結構化思維鏈生成,在複雜推理任務中表現出色。
DavidAU
這是一個基於Qwen3-Coder-30B-A3B-Instruct的混合專家模型,擁有540億參數和100萬上下文長度。模型通過三步合併和Brainstorm 40X優化,具備強大的編程能力和通用場景處理能力,特別集成了思考模塊,能夠在回答前進行深度推理。
DevQuasar
本項目是阿里巴巴通義深度研究30B模型的A3B量化版本,旨在通過量化技術降低模型部署成本,讓知識為每個人所用。該模型基於30B參數規模的大語言模型進行優化,保持了原模型的強大能力同時提升了推理效率。
mlx-community
基於智譜AI GLM-4.5-Air模型轉換的3位深度量化權重(Deep Weight Quantization)版本,專為MLX框架優化,在保持較高性能的同時顯著減少模型大小和推理資源需求
基於GLM-4.5-Air模型使用mlx-lm 0.26.1版本轉換的3位深度權重量化版本,專為Apple Silicon芯片優化,提供高效的大語言模型推理能力
Qwen
Qwen3-235B-A22B-Thinking-2507是一款強大的大語言模型,在推理任務、通用能力和長上下文理解等方面有顯著提升,適用於高度複雜的推理場景。該模型在過去三個月裡持續擴展了思維能力,提升了推理的質量和深度。
Vijayendra
DeepThinkerv2是一個具備深度數學推理能力的大語言模型,通過遞歸思考模式和多重驗證機制提升解題準確性。
future-technologies
DeepSeek-V3-0324是深度求索公司推出的大語言模型,相比前身DeepSeek-V3在推理能力、中文寫作和前端開發等方面有顯著提升。
這是一個實驗性構建的大型語言模型,結合了Dolphin3.0-R1-Mistral-24B與Brainstorm 40x技術,參數量達45B,具備強大的深度推理和思考能力。模型支持32k上下文長度,採用CHATML模板格式,特別優化了推理過程的詳細輸出。
基於TeeZee/DarkSapling-7B-v1.1全面重製的32k上下文大語言模型,在指令遵循、推理深度和情感表達方面表現優異
LeroyDyer
基於Mixtral架構的多功能大語言模型,融合深度心智與自我優化能力,支持多語言文本生成與複雜推理任務