科大訊飛星火X2-Flash模型發布:國產算力突破,智能體訓練效率大幅提升

   時間:2026-04-30 03:23 來源:快訊作者:IT之家

科大訊飛今日宣布,其全新研發的星火X2-Flash大模型正式上線,并同步開放API接口供開發者使用。該模型采用先進的MoE混合專家架構,總參數量達300億,最大支持256K上下文窗口,在智能體交互、代碼生成等核心能力上實現顯著突破。

基于華為昇騰910B國產算力集群訓練的星火X2-Flash,在技術架構上實現多項創新。通過將DSA稀疏注意力機制與MTP多token預測技術深度融合,模型訓練效率較同規模A800集群提升350%,成功解決國產芯片在長文本訓練中的性能瓶頸。實測數據顯示,在深度研究報告生成、技能調用管理等復雜任務中,其表現已接近萬億參數級模型水平,而token消耗量僅為主流大模型的30%。

在智能體開發場景中,該模型展現出顯著優勢。以視頻生成技能開發為例,開發者輸入需求后,模型可自動生成包含技能架構、核心功能及使用案例的完整方案。AstronClaw團隊測試表明,在智能體長交互場景下,采樣推理效率較傳統架構提升最高達200%,有效緩解了強化學習訓練中的算力瓶頸問題。

兼容性方面,星火X2-Flash已完成與OpenClaw、Claude Code等主流Agent框架的深度適配。Loomy平臺作為首批接入方,已基于該模型構建出多款復雜智能體應用。科大訊飛技術團隊透露,通過算子優化與分布式訓練策略創新,模型在國產芯片上的運行穩定性得到顯著提升。

目前開發者可通過科大訊飛開放平臺申請模型API調用權限。技術文檔顯示,該接口支持靈活的上下文長度配置,并提供多粒度的token消耗優化方案,特別適合需要處理長文本、復雜邏輯的智能體開發場景。

 
 
更多>同類天脈資訊
全站最新
熱門內容
媒體信息
新傳播周刊
新傳播,傳播新經濟之聲!
網站首頁  |  關于我們  |  聯系方式  |  版權隱私  |  RSS訂閱  |  違規舉報 魯公網安備37010202700497號