科大讯飞今日宣布,其最新研发的星火 X2-Flash 模型正式发布,并同步开放 API 接口供开发者使用。该模型基于华为昇腾 910B 集群训练完成,采用先进的 MoE 架构,总参数规模达 30B,最大支持 256K 上下文长度,在智能体、代码生成等核心能力上实现了显著提升。
据介绍,星火 X2-Flash 在国产算力平台上实现了多项技术突破。通过将 DSA(稀疏注意力)与 MTP(多 token 预测)相结合,该模型成功将上下文长度扩展至 256K,并通过算子优化和分布式训练策略,使训练效率较同规模 A800 集群提升 350%,有效解决了智能体长上下文在国产芯片上训练缓慢的难题。在智能体强化学习场景中,其采样推理效率较非 DSA 结构最高提升 2 倍,为大规模强化学习对齐训练提供了算力保障。
开发者实测数据显示,星火 X2-Flash 在深度研究报告生成、Skill 管理与调用等复杂任务中的表现已接近万亿级参数模型水平,而 token 消耗量仅为当前主流大尺寸模型的三分之一。以视频生成 Skill 开发为例,该模型可快速理解需求并输出包含技能结构、核心功能和使用案例的完整文档,显著降低了复杂 Agent 应用的开发成本。
在生态兼容性方面,星火 X2-Flash 已深度适配 OpenClaw、Claude Code 等主流 Agent 框架,并率先获得 AstronClaw、Loomy 等平台的接入支持。科大讯飞表示,此次发布标志着国产大模型在长文本处理效率和算力优化方面取得重要进展,为开发者构建高性能智能体应用提供了新选择。目前,相关 API 接口已全面开放。


