北京大學人工智能研究院孫仲研究員團隊攜手合作單位,在國際權威學術期刊《自然?電子學》發表了題為《基于阻變存儲器芯片實現高精度、可擴展的模擬矩陣方程求解》的突破性研究成果。該團隊成功開發出全球首款兼具高精度與可擴展性的模擬矩陣計算芯片,首次將模擬計算精度提升至與數字計算相當的水平,為后摩爾時代的計算架構革新開辟了全新路徑。
研究團隊針對傳統數字計算在處理大規模矩陣方程時面臨的復雜度與能耗困境,創新性地提出基于阻變存儲器的全模擬計算方案。通過將"陣列-運算放大器"閉環反饋結構與迭代算法深度融合,實現了矩陣求逆與矩陣-向量乘法的高效協同運算。實驗數據顯示,該方案在16×16矩陣求逆中達到24位定點精度,相對誤差低至10??量級,計算吞吐量較頂級GPU提升最高達1000倍,能效提升超過100倍。
在技術實現層面,研究團隊突破了傳統模擬計算的三大瓶頸:通過位切片技術將矩陣-向量乘法精度提升至24位;采用40nm CMOS工藝實現3比特電導態編程;創新性地構建了可擴展的阻變存儲器陣列架構。這種設計使模擬矩陣求逆的迭代次數顯著減少,同時保持了模擬計算固有的低復雜度優勢。在32×32矩陣求逆測試中,其單核算力已超越高端GPU;擴展至128×128矩陣時,性能優勢更加凸顯。
實際應用驗證表明,該技術在6G通信關鍵領域展現出獨特價值。研究團隊將其應用于大規模MIMO信號檢測,在無線通信場景下,僅需3次迭代即可達到32位浮點數字處理器的檢測性能。基于迫零檢測的圖像恢復實驗顯示,第二個迭代周期即可實現接收圖像與原始圖像的高度一致,誤碼率-信噪比曲線驗證了其在實際通信系統中的可靠性。
這項突破性成果標志著我國在新型計算架構領域取得重大進展。研究團隊通過器件-電路-算法的協同創新,成功破解了模擬計算精度與可擴展性難以兼顧的世紀難題。該技術不僅為人工智能大模型訓練提供了高效算力支持,其低功耗特性更可推動AI訓練與推理在終端設備的直接部署,顯著降低對云端計算的依賴。在6G通信領域,該技術有望實現基站對海量天線信號的實時低能耗處理,大幅提升網絡容量與能效。
據研究團隊介紹,這項成果已形成完整的技術體系,相關論文同步發表于《自然?通訊》《科學進展》等頂尖期刊。隨著后摩爾時代計算需求的爆發式增長,這種新型模擬計算架構將為智能計算與通信系統提供關鍵技術支撐,開啟綠色高效的新計算時代。





