科大讯飞发布星火X2-Flash模型,采用MoE架构,总参数量30B,支持256K超长上下文,完全基于华为昇腾910B集群训练,标志着国产算力生态下大模型应用进入新效能阶段。
Iflytek
$2
Input tokens/M
-
Output tokens/M
8
Context Length
$8