北京大學人工智能研究院孫仲研究員團隊與合作者在國際權威學術期刊《自然?電子學》上發表了一項突破性研究成果,題為《基于阻變存儲器芯片的高精度可擴展模擬矩陣方程求解》。該研究首次實現了模擬計算在精度上與數字計算相當的技術突破,將傳統模擬計算精度提升了五個數量級,為后摩爾時代計算架構變革提供了關鍵技術支撐。
研究團隊開發的阻變存儲器芯片在求解大規模矩陣方程時展現出卓越性能。實驗數據顯示,該芯片在32×32矩陣求逆任務中單核算力已超越高端GPU,處理128×128矩陣時計算吞吐量達到頂級數字處理器的千倍以上。在能效比方面,相同精度下較傳統數字處理器提升超百倍,這項突破為構建高能效計算中心提供了全新解決方案。
矩陣方程求解作為線性代數的核心運算,在信號處理、神經網絡訓練等領域具有廣泛應用。傳統數字計算方法面臨時間復雜度立方級的挑戰,而模擬計算雖具有高并行、低功耗優勢,卻長期受困于精度不足和擴展性差的問題。研究團隊通過創新設計,將模擬低精度矩陣求逆與模擬高精度矩陣-向量乘法相結合,開發出全模擬矩陣方程求解方案,成功實現16×16矩陣的24比特定點數精度求逆。
技術實現層面,研究團隊采用40nm CMOS工藝制造阻變存儲器陣列,實現了3比特電導態編程。通過迭代算法設計,模擬矩陣求逆電路可在每次迭代中提供近似正確結果,有效減少迭代次數;高精度模擬矩陣-向量乘法則采用位切片方法,實現迭代過程的精細化控制。這種軟硬件協同設計策略,突破了傳統模擬計算在精度和擴展性上的雙重瓶頸。
實際應用驗證中,該技術在大規模MIMO信號檢測任務中表現突出。研究團隊展示的迫零檢測圖像恢復實驗顯示,經過兩次迭代后接收圖像即可與原始圖像高度一致。誤碼率-信噪比分析表明,僅需三次迭代,系統檢測性能就能達到32位浮點精度數字處理器的水平,展現了在實時信號處理領域的巨大潛力。
這項突破對6G通信和人工智能發展具有重要推動作用。在6G基站建設中,該技術可實現海量天線信號的實時低功耗處理,顯著提升網絡容量和能效。對于人工智能大模型訓練,其高效支持二階優化算法的特性,有望將訓練效率提升數個量級。特別值得關注的是,終端設備可直接運行復雜信號處理和AI訓練推理任務,大幅降低對云端計算的依賴,為邊緣計算發展開辟新路徑。
研究團隊負責人孫仲研究員指出,這項突破證明了模擬計算能夠以極高效率和精度解決現代科學工程中的核心計算問題。通過新型信息器件、原創電路和經典算法的協同創新,研究團隊為算力提升探索出全新路徑,有望打破數字計算的長期壟斷,推動計算技術進入綠色高效的新時代。該成果相關論文已發表于《自然?電子學》,研究數據和實驗方法可在期刊官網查閱。











