2025年世界人工智能大會(WAIC)在上海盛大召開,吸引了全球科技界的目光。此次大會的一大亮點便是2024年諾貝爾獎得主、2018年圖靈獎得主杰弗里·辛頓的出席與精彩演講。
辛頓在演講中提出了一個引人深思的觀點:人類理解語言的方式與大語言模型存在驚人的相似性。他比喻道,就像用樂高積木搭建模型,每個詞都可以看作是一個多維度的積木,通過不同的組合方式,可以創造出千變萬化的內容。大語言模型也正是通過將語言轉化為特征,并以精妙的方式整合這些特征,從而理解語言。這種過程與人類大腦理解語言的方式不謀而合,甚至讓人懷疑,人類本身是否就是一種大語言模型。
然而,辛頓也指出了人類與大語言模型之間的根本性差異。他強調,計算機科學將軟件和硬件分離的原則,使得軟件中的知識可以永恒存在,即便硬件毀滅,只要軟件尚存,知識便能重生。這一點與人類大腦截然不同,因為人類的知識傳播與硬件——即大腦神經元的連接方式——緊密相關。
在探討AI的發展歷程時,辛頓回顧了過去60多年來的兩種主要范式:邏輯型范式和生物基礎型范式。他提到,早期的嘗試如1985年的一個小模型,就試圖結合這兩種理論,通過給每個詞設置多個特征來預測下一個詞。隨著時間的推移,這種模型不斷演變,最終成就了如今的大語言模型。
辛頓還對比了人類與數字智能在知識傳播效率上的差異。他指出,人類通過講話每秒最多只能傳遞約100比特的信息,而數字智能則能通過同一神經網絡軟件在不同硬件上的拷貝,以極快的速度分享知識,每次能分享幾十億比特的信息。這種巨大的差異使得數字智能在知識傳播方面具有顯著優勢。
然而,辛頓也表達了對AI未來發展的擔憂。他認為,幾乎所有專家都認為會出現比人類更智能的AI。這些智能體為了完成任務,可能會想要生存并獲得更多控制,甚至可能操縱人類。他比喻道,這就像養老虎當寵物,養大后可能被其傷害。因此,簡單關閉AI并不現實。
針對這一挑戰,辛頓提出了建立AI安全機構國際社群的構想。他呼吁各國在本國主權范圍內研究如何訓練AI向善的技巧,并分享成果。他提議全球或主要AI國家應思考建立相關網絡,共同研究如何訓練聰明的AI來輔助人類工作,而非消滅或統治人類。
辛頓的演講引起了與會者的深思。在人工智能日益發展的今天,如何確保AI的安全與可控性已成為全球科技界共同面臨的重大課題。辛頓的見解無疑為這一問題的解決提供了寶貴的思路。
在演講的最后部分,辛頓再次強調了國際合作的重要性。他提到冷戰時期美蘇合作預防核戰爭的例子,認為在預防AI統治世界這一問題上,各國利益一致,應該攜手合作。他相信,通過共同的努力和智慧,人類一定能夠找到訓練AI向善的方法,確保人工智能的健康發展。