iFLYTEK Spark X2-Flash Model Released: Trained on Huawei Ascend 910B Clusters, Supports Up to 256K Context Length
ITHome
IT之家
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾 910B 集群训练完成。 目前,AstronClaw、Loomy 已率先接入星火 X2-Flash。 科大讯飞表示,经 AstronClaw 实测,星火 X2-Flash 在深度研究报告、Skill 管理与调用、系统控制与执行等多类“养龙虾”最常用的任务上效果接近业界万亿级参数模型效果;在相同工作流下,整体 token 消耗不到当前主流大尺寸模型的三分之一,降低了开发者构建复杂 Agent 应用的使用成本。 以创建一个复杂的视频生成 Skill 为例,星火 X2-Flash 在了解详细需求后快速生成,并给出技能结构、核心功能和使用案例等关于 Skill 的详细说明。 科大讯飞介绍称,星火 X2-Flash 率先在国产算力上实现了 DSA(稀疏注意力)与 MTP(多 token 预测)结合的长文本高效训练,上下文拓展至 256K,通过亲和国产
