在芯片制造技術遭遇國際限制的背景下,華為通過技術創新開辟了算力發展的新路徑。近日舉行的華為全球技術峰會上,華為副董事長徐直軍宣布推出全球首款百萬卡級算力集群及新一代超節點解決方案,標志著中國在高端算力領域實現重大突破。
據介紹,華為此次發布的Atlas 950 SuperPoD和Atlas 960 SuperPoD超節點設備,分別可集成8192張和15488張昇騰AI芯片。這兩款設備在單節點算力密度、內存帶寬及節點間互聯效率等核心指標上均達到全球領先水平,其中Atlas 960 SuperPoD的芯片集成量較現有同類產品提升3倍以上。基于這些超節點構建的SuperCluster集群,算力規模分別突破50萬卡和百萬卡級別,形成全球最強的AI算力基礎設施。
技術層面,華為突破了大規模節點互聯的關鍵瓶頸。通過自主研發的靈衢(UnifiedBus)互聯協議,實現了超萬卡規模集群的高效協同。該協議采用分層架構設計,將傳統分布式系統的通信延遲降低60%,同時提升帶寬利用率至92%以上。徐直軍透露,華為將開放靈衢2.0技術規范,與產業伙伴共建開放生態,目前已有12家芯片廠商和8家服務器企業參與標準制定。
在應用場景拓展方面,華為首次將超節點技術引入通用計算領域。推出的TaiShan 950 SuperPoD通用計算超節點,配合GaussDB分布式數據庫,可完全替代傳統大型機和小型機系統。測試數據顯示,該解決方案在金融核心交易、電信計費等關鍵業務場景中,處理效率較傳統架構提升4-7倍,而總體擁有成本降低55%以上。
針對AI算力需求激增的現狀,徐直軍指出:"當前AI大模型訓練所需的算力每3.4個月就翻一番,傳統架構已無法滿足發展需求。華為的超節點+集群方案通過硬件重構和軟件優化,實現了算力密度與能效比的雙重突破。"據測算,Atlas 960 SuperCluster集群在32萬卡規模下,可支持萬億參數大模型的周級訓練,較現有方案效率提升3倍。
值得關注的是,華為此次發布的解決方案完全基于國內可獲取的芯片制造工藝。通過系統級創新,在7nm制程限制下實現了等效5nm制程的性能表現。行業分析師認為,這種"架構創新彌補制程差距"的模式,為中國科技企業突破技術封鎖提供了全新范式。
目前,華為已與30余家頭部企業開展超節點集群的聯合測試,覆蓋智能制造、智慧城市、科研計算等多個領域。某汽車廠商應用后,自動駕駛模型訓練周期從90天縮短至28天,研發效率顯著提升。隨著靈衢生態的完善,預計到2026年將有超過200款兼容設備進入市場。











