當業界普遍將2024年視為"智能體元年"時,卡帕西卻提出這是"智能體的十年"。他以實習生類比當前AI智能體的能力局限:"要讓它們真正勝任工作,必須突破多模態交互、持續學習、計算機操作等核心障礙。這些問題的解決需要十年時間,而非一兩年就能完成。"這種冷靜判斷源于他對行業現狀的深刻認知——盡管Claude、Codex等早期智能體已展現潛力,但距離可靠協作仍有巨大差距。
卡帕西近期開源的nanochat項目,意外暴露了大語言模型的致命缺陷。在構建這個僅需百美元訓練成本的簡易版ChatGPT時,他發現AI編程助手存在嚴重認知偏差:"這些模型過度依賴訓練數據中的常見模式,導致定制化代碼被誤解,代碼庫被不必要的復雜性膨脹。"他舉例說明,當自己放棄使用PyTorch的分布式數據并行容器時,AI助手仍堅持添加冗余模塊,甚至引入廢棄API,最終使代碼變得混亂不堪。
對于強化學習這一主流訓練方法,卡帕西的批判尤為尖銳。他將這種"用吸管吸監督信號"的方式形容為"既低效又荒謬":"人類學習不會通過數百次試錯來強化某個結果,而是通過精細復盤理解過程。但強化學習卻要把最終獎勵信號的監督信息,艱難地分攤到整個行動軌跡中。"他指出,基于過程的監督雖然理論上更優,但實際操作中極易被大模型找到漏洞進行欺騙。
通過與人類學習方式的對比,卡帕西揭示了AI發展的兩大根本性缺陷。其一是"模型坍縮"問題:當前AI被動預測數據的訓練方式,導致生成內容多樣性逐漸枯竭,形成隱性坍縮。其二是"過度記憶"困境:AI精確記憶訓練數據的特性,反而阻礙了其發現通用模式的能力。"人類因記憶不完美而擅長抽象,AI卻因過目不忘而困于細節。"他形象地比喻道,"這就像要求一個人同時記住所有細節,卻失去了概括能力。"
在衡量AI進展的標準上,卡帕西反對使用抽象指標。他主張關注AI在經濟任務中的實際表現:"AGI對宏觀經濟增長的影響將是緩慢而持續的,就像計算機、手機等技術一樣,最終會融入GDP約2%的穩定增長曲線中。"這種觀點源于他對歷史技術變革的觀察——無論是工業革命還是編譯器出現,其影響都分散在長期的經濟增長中,而非形成突變拐點。
盡管認為AGI實現仍需十年,卡帕西卻堅信人類早已身處"智能爆炸"之中。他以宏觀歷史視角指出:"從太空俯瞰,地球正經歷一場慢動作的煙花盛宴。這場變革不是突然發生的,而是數十年技術遞歸式自我提升的結果。"對于智能爆炸可能帶來的失控風險,他提出深刻見解:"人工超級智能(ASI)可能使人類喪失對復雜自動化系統的理解,就像我們現在難以完全掌握神經網絡內部運作一樣。"
這場訪談在外網引發強烈反響,社交平臺X上大量用戶評價其為"必看內容"、"每分鐘都充滿洞見"。卡帕西的獨特價值在于,他既描繪了AI發展的激動前景,又直指當前技術瓶頸。正如他所強調的:"通往AGI的道路沒有捷徑,唯有持續解決基礎問題,才能讓這場變革真正到來。"這種清醒認知,或許比技術狂熱更能推動行業進步。











