華為近日正式推出了一款名為Flex:ai的AI容器軟件,該產品憑借其獨特的算力切分技術,在行業內引發了廣泛關注。這項技術能夠將單張GPU或NPU算力卡細分為多個虛擬單元,最小切分粒度可精確至10%,從而讓單張算力卡能夠同時處理多個AI工作負載,大幅提升硬件資源的利用效率。
Flex:ai的核心優勢不僅體現在單卡算力的精細化管理上,更在于其強大的集群算力整合能力。通過將集群內各計算節點的空閑XPU算力高效聚合,該軟件構建了一個統一的“共享算力池”,實現了算力資源的全局調度與靈活分配。這種設計使得企業能夠根據實際需求動態調整算力分配,避免資源浪費。
在技術實現層面,Flex:ai采用了一套深度融合軟硬件的系統工程方案,覆蓋從底層芯片到頂層調度的全鏈條優化。通過創新性的軟件技術,該產品成功將GPU/NPU的典型利用率從30%-40%提升至70%,充分踐行了“以軟件補硬件”的理念。這一突破不僅降低了硬件成本,還顯著提升了計算效率。
硬件協同方面,Flex:ai與華為自研的昇騰AI處理器進行了深度整合。通過軟硬件協同設計優化,該軟件實現了最佳的性能功耗比,為AI訓練和推理提供了更高效的解決方案。特別是在大模型訓練場景中,Flex:ai展現出了強大的異構算力管理能力,能夠統一調度英偉達GPU和昇騰NPU等多種算力資源,有效解決了當前大模型訓練面臨的算力效率瓶頸問題。
為了推動技術共享與生態發展,華為決定在發布后將Flex:ai同步開源至魔擎社區。這一舉措將為開發者提供更多創新可能,促進AI技術的普及與應用。通過開源合作,Flex:ai有望吸引更多企業和開發者參與其中,共同推動AI算力管理技術的進步。











