科大讯飞发布星火X2-Flash模型,采用MoE架构,总参数量30B,支持256K超长上下文,完全基于华为昇腾910B集群训练,标志着国产算力生态下大模型应用进入新效能阶段。
Tencent
-
输入tokens/百万
输出tokens/百万
上下文长度
Stepfun
$100