在近日舉辦的2025英特爾技術創新與產業生態大會上,英特爾面向酷睿Ultra 200H "Arrow Lake-H"系列處理器推出了一系列AI能力升級方案,重點展示了其在大模型本地化部署與顯存優化領域的突破性進展。
該系列處理器通過系統架構創新,實現了最高128GB統一內存配置,其中120GB可動態分配為顯存資源。這一特性使其能夠直接運行參數量達1200億的混合專家模型(MoE),無需依賴云端算力即可完成本地推理任務。以酷睿Ultra 9 285H平臺為例,該型號已實現對Qwen 3-30B-A3B、Qwen 3-Next-80B-A3B等主流MoE架構模型,以及GPT OSS-120B/20B等稠密模型的全面兼容。
針對超大規模模型部署需求,英特爾開發了基于雷電接口的雙機集群方案。通過物理連接兩臺搭載酷睿Ultra 200H的設備,可構建起支持2350億參數模型本地推理的計算環境。這種分布式架構在保持低延遲的同時,將推理成本較云端方案降低了約40%,特別適合對數據隱私要求嚴苛的金融、醫療等領域。
在硬件協同優化方面,英特爾與存儲廠商Phison聯合研發的aiDAPTIV+顯存擴充技術成為亮點。該方案通過智能算法動態調整顯存分配策略,使模型響應速度提升3倍以上,同時將內存占用率降低60%。測試數據顯示,在運行800億參數模型時,該技術可使單設備推理效率達到主流云服務的85%水平,而功耗僅為后者的三分之一。















