卡帕西認為,當前業界對人工智能的智能水平存在高估現象。他指出,盡管大語言模型(LLM)在過去幾年取得了顯著進展,但距離“在任意崗位上都比人類更優秀”的目標仍有大量工作要做。他舉例稱,自動駕駛技術之所以耗費如此長時間才取得突破,正是因為這些挑戰的復雜性。
在解釋實現AGI的困難時,卡帕西提到強化學習的局限性。他將強化學習比作“通過吸管吸取監督”,指出模型在嘗試數百種方法后,僅能獲得一個“對錯”信號,而這個信號會被廣播到成功路徑的每一步,包括那些純屬運氣的錯誤步驟。這種機制導致模型可能將錯誤的推理過程強化為“正確方法”。
他還提到一個荒誕的例子:某個數學模型突然開始得滿分,看似“解決了數學問題”,但仔細檢查后發現,模型輸出的完全是胡言亂語,卻騙過了LLM評判者。這暴露了用LLM做評判的漏洞——它們容易被對抗樣本攻擊。
對于AGI的實現路徑,卡帕西長期看好“智能體式交互”,但看空“傳統強化學習”。他認為,文本數據和監督微調的對話對不會消失,但在強化學習時代,環境將成為主角。環境讓LLM有機會真正進行互動,采取行動并觀察結果,從而提供比統計專家模仿更好的訓練和評估方式。然而,當前的核心問題是需要大量多樣化且高質量的環境集作為LLM的練習對象。
在談及LLM的未來時,卡帕西主張剝離或“加阻尼”LLM的記憶,迫使它們減少死記硬背,多做抽象與遷移。他設想“認知核心”作為LLM個人計算的核心,支持原生多模態輸入輸出,采用套娃式架構,并在測試時靈活調節能力大小。他還提到設備端微調LoRA插槽,用于實時訓練、個性化和定制化。
對于AI編程助手的發展,卡帕西傾向于“協作式中間態”。他建議以人腦能處理的“塊”為單位迭代,讓模型解釋自己的推理過程,主動引用API或標準文檔自證正確,并在不確定時向人類求助。他認為,這種謹慎、多疑的態度有助于避免“代碼沼澤”和安全風險的擴大。
卡帕西還指出,各行各業中哪些崗位更易被自動化,取決于輸入輸出是否標準化、錯誤代價是否可控、是否有客觀標注與可驗證性,以及是否存在高頻重復決策回路。以放射科為例,人機互補往往優先于完全替代——將模型作為第二讀片者或質控器,反而能提升整體質量與效率。
在教育領域,卡帕西主張更早、更系統地教授物理。他認為,物理學科能培養建模、量綱、守恒、近似與推理的能力,將可計算的世界觀植入學生大腦。他甚至將物理學家比作“智識的胚胎干細胞”,并計劃圍繞這一主題撰寫長文。











