在人工智能技術深度滲透各行業的當下,算力的高效利用成為推動產業發展的關鍵要素。11月21日,2025AI容器應用落地與發展論壇于上海召開,華為公司副總裁、數據存儲產品線總裁周躍峰博士在會上正式推出AI容器技術Flex:ai,并宣布聯合上海交通大學、西安交通大學與廈門大學將這一產學研合作成果開源,旨在破解算力資源利用的瓶頸問題。
周躍峰在主題為《Flex:ai AI容器技術,釋放AI基礎設施潛力》的分享中指出,當前大型企業的AI系統建設普遍追求規模化,千卡、萬卡集群對XPU資源的調度方式較為粗放。然而,當AI技術向行業滲透時,中小企業往往面臨算力資源有限的困境,例如僅擁有4卡、8卡或16卡的集群。這類場景下,如何以更精細的算力單元進行調度、充分釋放每張卡的算力,成為亟待解決的問題。Flex:ai正是為滿足這一需求而生,其通過多級智能調度、算力資源切分及跨節點聚合技術,顯著提升算力利用率,推動AI技術向更廣泛的行業場景落地。
他進一步解釋,傳統AI系統在任務調度上存在顯著痛點:小任務單卡算力過剩,資源閑置;大任務單機算力不足,需多機協同;多任務并發時,資源調度效率低下。例如,醫院病理科室的AI診斷場景中,多名醫生同時使用NPU資源進行病理切片分析,若僅依賴增加硬件數量,成本壓力將難以承受。Flex:ai通過虛擬化技術將單卡拆分為更小算力單元,并實現跨節點資源聚合,有效解決了這些挑戰。
華為在推動AI行業化落地的過程中,已持續開源多項技術成果。此前發布的DCS AI全棧解決方案中,全流程工具鏈ModelEngine已開放,支持AI工程師高效對接和優化模型;數據匯聚工具鏈框架則加速了數據飛輪效應,提升模型自進化能力。今年,為優化推理效率,華為還推出了UCM推理記憶管理器,通過分級存儲推理數據至HBM、DRAM和SSD,結合數據系數矩陣管理,進一步降低了推理延遲。
Flex:ai的研發始于一年前,華為與上海交大、西安交大、廈門大學的科研團隊圍繞多級調度、資源切分和跨節點聚合等核心技術展開聯合攻關。周躍峰強調,AI行業化落地需要產業鏈各方協同創新,開源是加速技術普及的重要途徑。Flex:ai的代碼將全面開放至模型社區,供開發者共同完善,同時華為將持續與三所高校深化合作,推動技術迭代。
此次開源標志著華為在AI基礎設施領域的又一次突破。通過降低算力使用門檻,Flex:ai有望讓更多企業和機構以低成本部署AI應用,從醫療診斷到智能制造,從智慧城市到教育科研,技術紅利將覆蓋更廣泛的場景。隨著社區生態的壯大,這一容器技術或將成為推動AI平民化的關鍵基礎設施。















