科大訊飛發佈星火X2-Flash模型,採用MoE架構,總參數量30B,支持256K超長上下文,完全基於華爲昇騰910B集羣訓練,標誌着國產算力生態下大模型應用進入新效能階段。
Iflytek
$2
輸入tokens/百萬
-
輸出tokens/百萬
8
上下文長度
$8