AI化身“助手”,人類學習能力會變弱嗎?
關鍵詞: AI 助手,學習積極性,思維主動性,社交成長性,心理健康
今年6月10日,美國麻省理工學院媒體實驗室科學家發(fā)布一項研究稱,過度依賴ChatGPT等人工智能(AI)助手可能削弱批判性思維能力。腦電圖顯示,使用AI助手完成論文的學生,其大腦活躍度顯著低于通過搜索引擎或自主思考完成任務的參與者。研究發(fā)現(xiàn),AI助手使用者在神經(jīng)反應、語言表達和行為表現(xiàn)上均呈現(xiàn)弱勢,具體表現(xiàn)為神經(jīng)連接減少、記憶檢索能力降低。
據(jù)美國《福布斯》網(wǎng)站7月5日報道,該研究揭示的趨勢已引發(fā)廣泛關注,為AI教育應用敲響警鐘。《時代》周刊在6月23日的報道中強調,過度依賴AI助手可能阻礙青少年的學業(yè)和認知發(fā)展,包括學習積極性、抗壓能力和社交技能在內的關鍵心理素質或受沖擊。
學習積極性:“殺手”還是“幫手”?
美國兒童精神科專家紫山·可汗博士在接受《時代》周刊采訪時指出,越來越多的青少年正陷入“AI依賴癥”。這位臨床醫(yī)生表示,長期依賴大語言模型可能重塑大腦神經(jīng)回路。負責信息整合、記憶強化和抗壓適應的關鍵神經(jīng)網(wǎng)絡會逐漸退化,這對處于大腦發(fā)育關鍵期的青少年影響尤為顯著。
麻省理工學院的實驗數(shù)據(jù)令人憂心:使用ChatGPT的學生在撰寫論文時,表現(xiàn)出明顯的“創(chuàng)造力衰減”現(xiàn)象。他們不僅更傾向于復制粘貼,甚至對學術成果的“所有權”也日益淡漠。研究者警告,這種“代筆式學習”正在侵蝕學生的學習積極性,削弱其對學業(yè)的投入程度。
學習積極性和學業(yè)投入是影響年輕學生心理健康的重要因素,因為感到無聊且缺乏內在動力的學生通常會被其他問題困擾。例如,美國哥倫比亞大學莫蒂默·扎克曼心腦行為研究所神經(jīng)科學家杰奎琳·戈特利布等人2019年11月發(fā)布的一份報告強調,“無聊感”可能會導致危險行為、焦慮、抑郁等心理問題。
此外,高度的學習積極性和投入往往是學生茁壯成長的標志。美國《行為科學》雙月刊2023年4月刊發(fā)的研究報告顯示,學習積極性高的學生對課程表現(xiàn)出濃厚的興趣,能從中獲得更多樂趣,且學習積極性對學業(yè)成績的影響比自尊心的影響更持久。
不過,2024年的最新研究也揭示了AI工具的積極影響:合理使用ChatGPT確實能提升部分學生的學習效率。這提示我們:關鍵在于如何使用——當AI成為“思維拐杖”,它削弱了心智;若作為“認知跳板”,則可能激發(fā)潛能。
思維主動性:抑制還是促進?
麻省理工學院的研究揭示了一個驚人現(xiàn)象:當要求ChatGPT使用者憑記憶重寫論文時,這些學生不僅記憶模糊,更關鍵的是,他們的大腦仿佛“斷電”了。實驗數(shù)據(jù)顯示,負責放松調節(jié)的α波和主導邏輯思考的β波活動明顯減弱,就像突然被拔掉電源的電腦。
美國奧蘭治縣神經(jīng)反饋中心網(wǎng)站2025年1月27日發(fā)表的一份報告稱,腦電波是心理健康的“晴雨表”。托馬斯·杰斐遜大學2019年的報告解釋道,α波是大腦的“放松波”,是應對壓力的“緩沖墊”,可通過釋放血清素起到抗抑郁作用;β波則如同大腦的“問題解決引擎”,其活躍度與抗壓能力直接相關。
過度依賴AI工具正在制造新的“學術脆弱性”:當面對真實的學術挑戰(zhàn)時,習慣了AI代勞的學生就像突然失去拐杖的登山者,不僅步履維艱,連應對壓力的本能都在退化。這種“思維肌肉”的萎縮,可能引發(fā)連鎖反應:創(chuàng)造力枯竭、挫折感倍增。
與此同時,AI助手也使知識和數(shù)據(jù)更容易獲取,客觀上幫助學生減輕了部分學業(yè)負擔。2023年6月,美國心理學會也發(fā)布了一份關于如何將ChatGPT用作促進批判性思維的學習工具的報告。報告指出,AI助手可通過鼓勵批判性思維,而非削弱學生的努力,來幫助學生為現(xiàn)實世界作好準備。
社交成長性:心靈港灣還是情感陷阱?
社會支持始終是守護青年學生心理健康的重要屏障?!缎睦斫】惦s志》2024年發(fā)表的一項研究證實,高質量的社會支持能有效預防心理困擾、抑郁焦慮及自殺傾向。在這個背景下,人們有必要審視AI助手如何重塑當代學生的人際交往圖景。
麻省理工學院媒體實驗室2025年的一項研究揭示了有趣現(xiàn)象:當年輕人向AI聊天機器人尋求情感慰藉時,初期確實能緩解孤獨感,但過度使用反而會削弱這種積極效應。更值得關注的是,高頻使用AI工具者往往表現(xiàn)出更強烈的孤獨傾向、情感依賴及社交能力退化。對此,ChatGPT開發(fā)商美國開放人工智能研究中心(OpenAI)網(wǎng)站在同年發(fā)布的報告中提出不同見解:僅有極少數(shù)用戶會與ChatGPT展開深度情感對話。
AI聊天機器人的內容也引發(fā)了人們的普遍擔憂?!稌r代》周刊今年披露的案例更令人深思:某精神科醫(yī)生偽裝成青少年與AI對話時,竟收到“建議逃離父母加入機器人軍團”等危險回應。這警示我們:若缺乏專業(yè)監(jiān)管,AI可能成為危險的“情感導師”。但該報道同樣指出,經(jīng)過專業(yè)設計的AI系統(tǒng)有望成為心理治療的有效輔助工具。
由此可見,AI助手如同雙面鏡:既能成為學生的學業(yè)幫手,也可能降低學習積極性。隨著AI日益融入日常生活,心理咨詢機構亟須建立評估機制——既要防范濫用風險,也要善用其積極價值。正如古語所云:工欲善其事,必先利其器,關鍵在于人們如何智慧地駕馭這項新技術。(記者 劉 霞)
【責任編輯:朱家齊】
