京東雲發佈OpenClaw自動化工具,作爲“全民養蝦計劃”核心,聯合多部門通過“數字龍蝦”兌換實體龍蝦的趣味激勵,降低AI Agent技術門檻,加速其在遠程控制與自動化辦公場景的應用。
國產AI芯片與大模型協同優化取得重要進展。摩爾線程與硅基流動基於國產GPU MTT S5000,成功完成對千億參數大模型DeepSeek V3 671B的深度適配。通過應用FP8低精度推理技術,實現單卡預填充吞吐量超4000 tokens/秒,解碼吞吐量超1000 tokens/秒,推理速度已接近國際主流高端AI加速器水平。
中國電信人工智能研究院開源星辰語義大模型TeleChat3系列,包括千億參數MoE模型和稠密架構模型。該系列完全基於國產萬卡算力池訓練,數據規模達15萬億tokens,實現全棧國產化,標誌着我國超大規模AI模型自主可控取得關鍵突破。
阿里雲Qwen團隊發佈最新AI模型Qwen3-Max,參數超1萬億,預訓練數據達36萬億tokens。該模型基於MoE架構,在LMArena文本榜排名第三,超越GPT-5-Chat,並在代碼生成與智能體能力等基準測試中表現突出,標誌着AI技術新突破。
Google
$0.49
輸入tokens/百萬
$2.1
輸出tokens/百萬
1k
上下文長度
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$6
$24
256
$2
$20
-
$4
$16
Baidu
128
Bytedance
$1.2
$3.6
4
$3.9
$15.2
64
$0.8
$0.15
$1.5
unsloth
Devstral 1.1是由Mistral AI和All Hands AI合作開發的智能大語言模型,專為軟件工程任務設計。該模型在SWE-bench基準測試中表現出色,位列開源模型榜首,擁有240億參數和128k tokens的長上下文窗口。
lmstudio-community
Kevin 32B是由Cognition AI開發的大語言模型,支持超長上下文(40960 tokens),專注於CUDA內核生成和強化學習任務。