谷歌DeepMind首席執行官德米斯·哈薩比斯近日公開表示,將現有AI模型的規模擴展至極限是實現通用人工智能(AGI)的核心路徑。這位憑借Gemini 3模型引發行業關注的科技領袖認為,規模化不僅是當前AI發展的關鍵,更可能直接構成AGI系統的主體框架。不過他也坦言,僅依賴規模擴張或許不足以完全達成目標,未來可能需要一至兩項突破性技術作為補充。
通用人工智能(AGI)作為人工智能領域的終極目標,旨在創造具備人類同等甚至超越人類認知能力的智能系統。目前全球頂尖科技企業均在此賽道展開激烈競爭,但該技術仍停留在理論探索階段。哈薩比斯提出的規模化路線,本質上是將機器學習領域著名的"規模定律"推向新高度——該定律揭示了模型參數量、訓練數據規模與計算資源投入之間的量化關系,被業界視為大模型訓練的核心準則。
規模定律的實踐邏輯可簡化為:通過持續增加模型參數量、擴充訓練數據集并提升算力投入,能夠系統性提升AI系統的智能水平。這種技術路線在近年來催生了多個具有里程碑意義的AI模型,但也逐漸暴露出深層矛盾。行業專家指出,公開可用的高質量訓練數據總量存在天然上限,而算力需求的指數級增長不僅推高了研發成本,更對能源供給和碳排放控制形成嚴峻挑戰。部分研究機構警告,當模型規模突破特定閾值后,可能出現邊際效益遞減現象。
針對這種技術路徑的爭議,硅谷科技界已形成明顯分歧。前meta首席AI科學家楊立昆(Yann LeCun)今年4月在新加坡國立大學演講時明確反對"規模至上論"。這位剛宣布離職創業的權威學者強調,單純堆砌數據和算力無法解決AI發展的根本性問題,特別是在處理復雜推理、常識理解等高階認知任務時,現有規模化方法表現乏力。他透露正在研發的"世界模型"體系將完全摒棄語言數據依賴,轉而通過構建三維空間認知框架來模擬人類對物理世界的理解方式。
這場技術路線之爭折射出AI發展進入深水區后的戰略抉擇。支持規模化擴張的陣營認為,現有技術路線尚未觸及物理極限,通過優化算法架構和分布式計算技術,仍可挖掘數據紅利的剩余價值;而批判者則主張開辟新范式,通過模擬人類認知機制或開發新型學習框架來突破當前瓶頸。兩種思路的碰撞,正在重塑全球AI研發的競爭格局。隨著頭部企業陸續公布下一代模型研發計劃,這場關于AGI實現路徑的辯論預計將持續引發行業震動。










