近期,麻省理工學院媒體實驗室的研究團隊發布了一項引人深思的研究結果,該研究聚焦于大型語言模型(LLM),特別是OpenAI的ChatGPT,在論文寫作任務中對人類認知的影響。研究由Nataliya Kosmyna領導,揭示了雖然LLM帶來了工作效率的提升,但長期使用可能會對人類大腦的認知功能產生不利影響。
在這項研究中,54名參與者被隨機分配到三個不同的組別:LLM組、搜索引擎組和純腦力組。各組在四次會話中完成論文寫作任務,其中LLM組全程使用ChatGPT,搜索引擎組則依賴傳統搜索引擎,而純腦力組不借助任何外部工具。特別的是,在第四次會話時,LLM組的成員被要求不使用任何輔助工具,而純腦力組的成員則開始使用LLM。
研究團隊采用腦電圖(EEG)技術監測參與者的大腦活動,以此評估他們的認知投入和負荷。研究還結合了自然語言處理(NLP)分析和深度訪談,同時邀請人類教師和AI評判員對論文質量進行打分。這些多角度的數據收集方法,使得研究能夠全面揭示LLM使用對人類認知的神經和認知層面的影響。
研究發現,不同組別在大腦連接性方面存在顯著差異。純腦力組顯示出最強且范圍最廣的大腦網絡連接,搜索引擎組次之,而LLM組的連接性最弱。特別是在第四次會話中,那些從LLM轉向純腦力工作的參與者,表現出了大腦連接性的減弱,特別是在與內部注意力和語義處理相關的阿爾法波段,以及與主動認知處理相關的貝塔波段。
記憶方面,LLM組的參與者在引用自己剛完成的論文內容時遇到了困難,這表明他們可能繞過了深層記憶編碼過程,更多地依賴外部工具生成的內容。LLM組的成員對自己論文的所有權感知度也較低,這進一步凸顯了LLM使用對個體認知能動性的潛在負面影響。
研究還指出,雖然LLM在短期內提供了效率上的優勢,減少了即時認知負荷,但長期來看,這種便利可能以犧牲深度學習成果為代價。過度依賴LLM可能導致認知負債的積累,削弱個體的批判性探究能力和創造力。相比之下,純腦力組的成員雖然面臨更高的認知負荷,但他們的記憶力更強,語義準確性更高,對自己的作品擁有更強的主人翁意識。
對于教育領域,這項研究提出了深刻的警示。過度依賴AI工具可能會阻礙深層認知處理、知識保留以及對學習材料的真實投入。教育干預措施應當考慮將AI工具輔助與“無工具”學習階段相結合,以平衡即時技能轉移和長期神經發展。在學習的初期階段,全面的神經參與對于構建強大的認知網絡至關重要,而在后續階段,有選擇性地使用AI支持可以減少不必要的認知負荷,提高效率。
最后,該研究強調了在使用LLM時必須謹慎權衡其對認知發展、批判性思維和智力獨立性的潛在影響。LLM雖然能夠減少回答問題的摩擦,但這種便利性也帶來了認知成本,削弱了用戶批判性評估LLM輸出的能力。這預示著算法策劃內容可能會進一步加劇“回音室”效應,影響用戶接觸信息的多樣性。