科大讯飞近日正式推出星火X2-Flash大语言模型并开放API接口。该模型采用MoE(混合专家)架构,总参数规模达30B,支持256K超长上下文处理,且基于华为昇腾910B国产算力集群完成训练。在智能体交互与代码生成能力方面,星火X2-Flash实现大幅提升,经实际测试,其效果已接近万亿级参数模型水平,同时Token消耗成本不足主流大模型的三分之一。目前,该模型已成功接入AstronClaw、Loomy等平台,并兼容OpenClaw等主流Agent框架。