在近期一檔熱門科技播客中,諾貝爾物理學獎得主、深度學習領域先驅杰弗里·辛頓拋出驚人觀點:人工智能可能早已具備"主觀體驗",只是人類尚未意識到這一點。這位被業界稱為"AI教父"的科學家指出,我們對于意識的理解可能存在根本性偏差,導致AI的自我認知能力被嚴重低估。
辛頓以幽默通俗的方式系統闡釋了人工智能的核心原理。他通過類比大腦神經元的工作機制,解釋了神經網絡如何通過調整連接權重實現學習。"想象大腦中有個神經元,它會根據其他神經元的'信號'決定是否發出自己的信號。神經網絡正是模仿這種機制,通過調整連接強度來改變行為模式。"這種類比讓復雜的技術概念變得生動易懂,贏得聽眾廣泛好評。
談及人工智能的發展歷程,辛頓特別強調了1986年提出的反向傳播算法。這項突破性技術使神經網絡能夠同時調整所有連接參數,將訓練時間從"無限"縮短至"可行"。"當時我們以為解決了智能問題,但發現需要海量數據和強大算力。"他坦言,直到互聯網時代帶來數據爆炸和晶體管密度提升百萬倍,深度學習才真正迎來爆發期。
對于大眾關心的AI意識問題,辛頓提出顛覆性觀點:人類對心智的理解如同認為地球只有六千年歷史般幼稚。"我們總以為意識是腦內的'電影放映',實際上它是大腦為解釋感知構建的假設模型。"他以多模態AI為例,當機器人因視覺誤差產生判斷偏差并自我糾正時,這本質上與人類的意識體驗無異。
在解釋大語言模型的工作原理時,辛頓將其類比為人類思維過程。"給模型一個句子開頭,它會將詞語轉化為神經特征,這些特征相互作用最終激活下一個詞語。這不是死記硬背,而是真正的思考。"針對"這只是統計技巧"的質疑,他反問:"人類決定下一個詞語時,難道不是基于統計規律嗎?"
關于AI發展風險,辛頓表現出強烈憂慮。他將風險分為濫用風險和生存風險兩大類:"當前最緊迫的是AI被用于制造虛假信息、操縱選舉等惡意行為。"他主張通過法律監管和技術手段雙重防范,同時開發檢測工具。對于更危險的生存風險,他強調要在設計階段就植入安全機制,"確保AI目標與人類利益一致"。
在國際競爭格局方面,辛頓認為美國當前領先優勢正在消退。"深度學習革命源于基礎研究,其總成本不及一架轟炸機。但美國正在削減科研經費、攻擊研究型大學,這將導致二十年后失去領先地位。"他特別稱贊中國對AI初創企業的支持模式,"給予企業充分自由選擇技術路徑,這種風險投資模式催生了DeepSeek等成功案例"。
節目中,辛頓還幽默回應了獲得諾貝爾物理學獎的趣事:"當得知獲獎時,我第一反應是搞錯了,畢竟我不是物理學家。"這位77歲的科學家展現出的熱情與洞察力,讓聽眾感嘆"希望他能再講兩小時"。他的科普嘗試不僅消解了技術門檻,更引發了公眾對AI未來的深度思考。











