在人工智能技術(shù)飛速發(fā)展的當(dāng)下,大型模型對海量數(shù)據(jù)的依賴程度不斷加深,傳統(tǒng)計(jì)算機(jī)架構(gòu)的局限性日益凸顯。其中,內(nèi)存與處理能力分離的馮·諾依曼架構(gòu),正因“內(nèi)存墻”問題成為制約人工智能發(fā)展的關(guān)鍵瓶頸。這一架構(gòu)下,數(shù)據(jù)在內(nèi)存與處理器間頻繁傳輸,不僅消耗大量時(shí)間,更導(dǎo)致能源效率低下,成為亟待突破的技術(shù)難題。
馮·諾依曼架構(gòu)自1945年提出以來,長期主導(dǎo)計(jì)算機(jī)設(shè)計(jì)領(lǐng)域。然而,隨著語言處理模型規(guī)模在四年內(nèi)激增5000倍,其內(nèi)存容量與處理速度失衡的缺陷愈發(fā)突出。計(jì)算機(jī)工程師將這種性能瓶頸形象地稱為“內(nèi)存墻”——數(shù)據(jù)傳輸需求遠(yuǎn)超內(nèi)存帶寬,導(dǎo)致系統(tǒng)整體效率大幅下降,尤其在運(yùn)行大型人工智能模型時(shí),能源消耗問題尤為嚴(yán)峻。
針對這一挑戰(zhàn),科研團(tuán)隊(duì)提出了一種革命性解決方案:借鑒人腦運(yùn)作機(jī)制,構(gòu)建內(nèi)存與處理能力深度融合的新型計(jì)算機(jī)架構(gòu)。這種被稱為“內(nèi)存計(jì)算”(Compute-in-Memory,CIM)的技術(shù),通過將計(jì)算單元直接嵌入內(nèi)存系統(tǒng),從根源上減少數(shù)據(jù)傳輸需求。研究指出,CIM架構(gòu)可顯著提升處理效率,為突破“內(nèi)存墻”提供可行路徑。
算法層面,研究團(tuán)隊(duì)采用脈沖神經(jīng)網(wǎng)絡(luò)(Spiking Neural Networks,SNN)作為核心模型。盡管SNN曾因速度與精度不足備受質(zhì)疑,但近年通過算法優(yōu)化與硬件適配,其性能已實(shí)現(xiàn)質(zhì)的飛躍。這種模擬人腦神經(jīng)元脈沖傳遞方式的算法,與CIM架構(gòu)形成完美互補(bǔ),進(jìn)一步降低了系統(tǒng)能耗。
該技術(shù)的潛在應(yīng)用場景廣泛。科研人員認(rèn)為,通過整合內(nèi)存與計(jì)算功能,人工智能設(shè)備可擺脫對數(shù)據(jù)中心的依賴,實(shí)現(xiàn)自主運(yùn)行。例如,醫(yī)療監(jiān)測設(shè)備可延長電池續(xù)航時(shí)間,交通運(yùn)輸系統(tǒng)能提升實(shí)時(shí)決策能力,無人機(jī)則可搭載更復(fù)雜的算法執(zhí)行任務(wù)。這種低功耗、高效率的設(shè)計(jì),為人工智能向邊緣端滲透創(chuàng)造了條件。
研究團(tuán)隊(duì)強(qiáng)調(diào),降低能源消耗是人工智能從實(shí)驗(yàn)室走向?qū)嶋H應(yīng)用的關(guān)鍵。當(dāng)前技術(shù)路徑下,設(shè)備體積與能耗的矛盾制約著人工智能的普及,而CIM架構(gòu)與SNN算法的結(jié)合,有望推動(dòng)技術(shù)向更便攜、更經(jīng)濟(jì)的方向發(fā)展。這一突破不僅為計(jì)算機(jī)架構(gòu)設(shè)計(jì)提供了新思路,更為人工智能在多領(lǐng)域的深度應(yīng)用奠定了技術(shù)基礎(chǔ)。











