Newsguard最新研究指出,生成式人工智能工具在處理實時新聞事件時,傳播不實信息的比例出現顯著攀升。對比去年8月18%的虛假信息傳播率,今年同期這一數字已升至35%,增長幅度近乎翻倍。研究人員發現,這一變化與AI聊天機器人新增的實時網絡搜索功能密切相關——該功能雖使拒絕作答的情況從31%歸零,卻也導致系統直接抓取網絡中未經核實的海量信息。
在追蹤的十大主流AI工具中,各模型表現差異明顯。Inflection公司推出的模型以56.67%的虛假信息傳播率墊底,較去年同期數據惡化顯著。Perplexity模型的表現同樣堪憂,其出錯率從去年8月能100%識別虛假信息的水平,跌至今年近50%的誤傳率。ChatGPT與meta旗下模型以40%的錯誤率處于中游,Copilot和Mistral的傳播失誤率則為36.67%。表現相對優異的Claude和Gemini模型,錯誤率分別控制在10%和16.67%,成為樣本中可信度較高的選項。
值得關注的是,AI工具接入網絡搜索的初衷本是解決信息滯后問題。OpenAI技術人員坦言,當前語言模型通過預測"最可能出現的下一個詞"生成回答,這種機制決定了其難以確保內容的絕對真實性。盡管該公司正在開發"不確定性提示"技術,試圖讓模型對可疑信息作出標注,但業內人士指出,這種改進能否從根本上遏制虛假信息傳播,仍有待觀察。
據Newsguard統計,去年全球范圍內已發現966個模仿正規媒體的AI生成虛假新聞網站,這些平臺以16種語言發布不實內容,形成跨國界的虛假信息傳播網絡。研究人員警告,隨著AI工具對網絡信息的依賴度加深,如何建立有效的內容過濾機制,將成為決定技術發展方向的關鍵課題。