高通公司近日正式發布針對數據中心領域的全新AI推理加速方案,該方案基于Qualcomm AI200與AI250芯片組構建,涵蓋加速卡及機架級系統產品。通過優化總體擁有成本(TCO),該系列解決方案可為高算力數據中心提供機架級生成式AI推理性能,同時配備大容量內存支持復雜模型運行。

作為機架級AI推理專用產品,Qualcomm AI200加速卡單卡配置768GB LPDDR內存,在保持低TCO優勢的同時,為大型語言模型(LLM)和多模態模型(LMM)提供優化的推理性能。其內存架構設計兼顧高擴展性與成本效益,支持數據中心靈活部署不同規模的AI工作負載。
更值得關注的是Qualcomm AI250機架系統,該產品首次采用近存計算(Near-Memory Computing)內存架構。通過將計算單元與存儲單元深度整合,系統有效內存帶寬實現超10倍提升,同時功耗顯著降低。這種創新架構支持解耦式AI推理模式,可動態分配硬件資源,在滿足性能需求的同時控制運營成本。
兩款產品均配備先進的散熱與擴展設計:支持直接液冷技術提升能效比,提供PCIe縱向擴展和以太網橫向擴展能力,并內置機密計算模塊保障數據安全。整機架設計功耗控制在160千瓦,兼顧高性能與節能需求。
根據技術路線圖,Qualcomm AI200將于2026年進入商用階段,AI250則計劃在2027年推向市場。這兩款產品的推出,預計將推動數據中心AI推理領域實現技術架構與商業模式的雙重突破。







