近期,麻省理工學院(MIT)的一項新研究揭示了人工智能(AI)在理解否定詞上的顯著短板,這一發現對醫療等重要領域提出了嚴峻挑戰。據研究顯示,盡管AI在疾病診斷、詩歌創作及自動駕駛等領域取得了顯著進展,但在處理“no”和“not”等否定詞時,卻顯得力不從心。
在MIT博士生Kumail Alhamoud的帶領下,研究團隊攜手OpenAI和牛津大學,對包括ChatGPT、Gemini和Llama在內的主流AI模型進行了深入分析。結果顯示,這些模型在處理否定語句時,往往傾向于忽視否定含義,而默認與肯定相關聯。
研究指出,AI在醫療場景中的潛在危害尤為突出。例如,AI可能會錯誤地解讀“無骨折”(no fracture)或“未擴大”(not enlarged)等關鍵信息,進而可能導致嚴重的醫療失誤。這一發現無疑為AI在醫療領域的應用敲響了警鐘。
據分析,問題的根源不在于數據量的不足,而在于AI的訓練方式。斯坦福大學深度學習兼職教授Kian Katanforoosh指出,大多數AI語言模型依賴于模式預測,而非邏輯推理。這意味著,在面對如“不好”(not good)這樣的否定表達時,AI仍可能因“good”一詞的存在而誤判為正面情緒。
Lagrange Labs首席研究工程師Franklin Delehelle也表達了類似的觀點。他認為,AI擅長模仿訓練數據中的模式,但缺乏創新和應對訓練數據之外情境的能力。這導致AI在面對復雜的否定語句時,往往難以做出準確的判斷。
為了改進AI模型在處理否定語句方面的表現,研究團隊嘗試通過合成否定數據(synthetic negation data)來進行訓練。雖然這種方法取得了一定成效,但細粒度的否定差異仍然是一個具有挑戰性的難題。
Katanforoosh警告稱,AI對否定的誤解不僅是一項技術缺陷,更可能在法律、醫療和人力資源等多個領域引發關鍵錯誤。他呼吁業界在提升AI模型時,應更加注重結合統計學習與結構化思維,以增強模型的邏輯推理能力。
研究還指出,AI在處理否定語句時的不足,也揭示了AI在理解和應用人類語言方面的局限性。這要求我們在推動AI技術發展的同時,必須保持警惕,確保AI在關鍵領域的應用不會因語言理解的缺陷而引發風險。