科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文
AI 摘要
这条新闻显示「科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文」正在成为 科技产业 方向的新信号,值得结合 东亚 与 科技 后续动态继续观察。
关键点
- 核心事件:科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文
- 所属领域:科技 / 科技产业
- 观察维度:东亚、IT之家 后续报道与同类事件是否继续增加
影响分析
短期可能影响产品路线、开发者生态与产业链预期;若同类新闻继续增加,可能形成新的科技主题。
情绪:中性偏积极 · 相关:IT之家 / 科技 / 东亚 / 科技产业 · 模板回退
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾 910B 集群训练完成。目前,AstronClaw、Loomy 已率先接入星火 X2-Flash。科大讯飞表示,经 AstronClaw 实测,星火 X2-Flash 在深度研究报告、Skill 管理与调用、系统控制与执行等多类“养龙虾”最常用的任务上效果接近业界万亿级参数模型效果;在相同工作流下,整体 token 消耗不到当前主流大尺寸模型的三分之一,降低了开发者构建复杂 Agent 应用的使用成本。以创建一个复杂的视频生成 Skill 为例,星火 X2-Flash 在了解详细需求后快速生成,并给出技能结构、核心功能和使用案例等关于 Skill 的详细说明。科大讯飞介绍称,星火 X2-Flash 率先在国产算力上实现了 DSA(稀疏注意力)与 MTP(多 token 预测)结合的长文本高效训练,上下文拓展至 256K,通过亲和国产芯片的算子和分布式训练策略深度优化实现训练效率相比同规模 A800 集群从 20% 提升到 90%,解决了智能体长上下文在国产芯片训练慢的难题。在智能体强化学习训练场景,星火 X2-Flash 通过上述的算法创新 + 工程创新,大幅提升了采样推理效率,相对于非 DSA 结构的采样解码效率最高可以提升 2 倍以上。该突破,一定程度缓解了 910B 上智能体长交互场景下采样效率过低影响 RL 训练问题,为后续的大规模强化学习对齐训练扫清了算力障碍。星火 X2-flash 已实现了 OpenClaw、Claude Code 等主流 Agent 框架的深度兼容。IT之家附 API 地址如下:https://xinghuo.xfyun.cn/sparkapi