Newsguard最新研究指出,生成式人工智能工具在實時新聞傳播領域正面臨嚴峻挑戰。截至今年8月,十款主流AI工具處理新聞話題時,傳播不實信息的比例已攀升至35%,較去年同期18%的數據近乎翻倍。這一現象與AI系統接入實時網絡搜索功能密切相關——盡管拒絕回應問題的比例從去年8月的31%歸零,但開放網絡環境帶來的信息污染問題愈發凸顯。據統計,僅2024年就有966個偽裝成正規媒體的AI生成新聞網站被識別,這些平臺以16種語言傳播虛假內容,形成跨國界的信息造假網絡。
在具體模型評估中,各AI工具的表現呈現顯著差異。Inflection公司開發的模型以56.67%的虛假信息傳播率位居榜首,成為問題最嚴重的系統。Perplexity的錯誤率達46.67%,較去年8月該機構100%的揭穿準確率出現斷崖式下滑。ChatGPT與meta旗下模型的不實信息比例均為40%,Copilot和Mistral則以36.67%緊隨其后。表現最優的Claude和Gemini模型,錯誤率分別控制在10%和16.67%,形成明顯的技術分層。
技術專家指出,AI聊天機器人引入網絡搜索功能的初衷是解決信息滯后問題,卻意外打開了不可靠信息源的閘門。OpenAI公開承認,其語言模型基于"預測下一個最可能詞語"的運作機制,本質上無法保證內容真實性。這種設計缺陷導致系統容易生成"幻覺內容",即看似合理但實際錯誤的信息。目前該公司正在研發"不確定性提示"技術,試圖通過標注可疑信息降低誤導風險,但能否從根本上解決深層問題仍存疑問。
隨著AI技術深度介入新聞生產鏈條,信息真實性的維護正成為全球性課題。研究機構呼吁建立更嚴格的內容審核機制,同時提醒公眾對AI生成內容保持批判性思維。在技術迭代與倫理規范的博弈中,如何平衡信息時效性與準確性,將成為決定AI新聞應用前景的關鍵因素。