高通技術公司正式推出兩款專為數據中心設計的AI推理芯片——Qualcomm AI200與AI250,標志著其在AI硬件領域的戰略布局邁入新階段。這兩款產品以加速卡和機架系統形式交付,聚焦大語言模型及多模態模型的推理場景優化,旨在滿足數據中心對高算力、低延遲的需求。
Qualcomm AI200的亮點在于單張加速卡支持768GB LPDDR內存,采用機架級架構設計。通過擴大內存容量并優化成本結構,該方案試圖在擴展性與靈活性之間找到平衡點。而AI250則引入了近存計算技術,官方數據顯示其有效內存帶寬提升超10倍,同時顯著降低功耗,為高密度計算場景提供更高效的解決方案。
在散熱與擴展能力方面,兩款機架系統均支持直接液冷技術,并具備PCIe縱向擴展與以太網橫向擴展功能。整機架功耗控制在160千瓦以內,同時集成機密計算功能,確保數據中心處理敏感工作負載時的安全性。這些設計使產品能夠適應不同規模的數據中心部署需求。
高通技術公司高級副總裁馬德嘉(Durga Malladi)在發布會上強調,兩款產品重新定義了機架級AI推理的性能邊界。其軟件棧覆蓋從應用層到系統層的完整技術體系,兼容主流機器學習框架和推理引擎。開發者可通過高通的高效Transformer庫及Qualcomm AI Inference Suite快速接入模型,并支持Hugging Face模型的一鍵部署,大幅簡化開發流程。
AI250的解耦式AI推理架構成為另一大技術突破。該架構通過分離計算與存儲資源,提升硬件利用率,直擊當前數據中心AI部署中的資源浪費痛點。這一設計理念與行業對高效能計算的追求高度契合,為數據中心運營方提供了更具成本效益的選擇。
商用計劃方面,Qualcomm AI200預計于2026年投入市場,AI250則定于2027年發布。高通透露,未來將按年度迭代節奏更新數據中心產品線,持續優化AI推理性能、能效比及總體擁有成本,以應對不斷增長的市場需求。











