選項
首頁
新聞
AI依賴可能削弱批判性思考:麻省理工研究揭示認知風險

AI依賴可能削弱批判性思考:麻省理工研究揭示認知風險

2025-07-25
7

在一個AI工具如ChatGPT與拼字檢查一樣普遍的時代,麻省理工一項發人深省的研究警告,我們對大型語言模型(LLMs)的日益依賴可能正悄悄地削弱我們的批判性思考與深度學習能力。這項由麻省理工媒體實驗室研究人員進行的四個月研究,提出了「認知債務」的概念,挑戰教育工作者、學生與科技愛好者重新思考對AI的依賴。

這項發現具有重大意義。隨著全球學生轉向AI尋求學術支持,我們可能正在培養一代寫作速度更快但思考深度較淺的學生。這不僅僅是另一個科技警示故事;它是一項科學基礎上的探索,研究外包認知任務給AI如何影響我們大腦進行深度思考的能力。

AI如何影響大腦功能

麻省理工研究追蹤了來自波士頓地區五所學校的54名大學生,將他們分為三組:一組使用OpenAI的GPT-4o,另一組依賴傳統搜尋引擎,第三組在沒有外部工具的情況下撰寫文章。研究人員使用腦電圖(EEG)監測發現,獨立撰寫文章的組別在大腦多個區域顯示出更強的神經聯繫。

值得注意的是,theta與alpha腦波的差異,這些腦波與工作記憶和執行功能相關。獨立工作的組別展現出增強的額頂alpha聯繫,反映出專注的內部處理與創意形成。相反,LLM組別顯示出較低的額葉theta聯繫,表明對工作記憶和執行控制的需求較低。

本質上,使用AI進行寫作使大腦進入低努力模式。雖然這看似高效,但會導致認知脫離。用於產生想法、批判性分析和創意合成的神經路徑未被充分利用,類似於因缺乏活動而變弱的肌肉。

AI輔助寫作中的記憶缺口

一項引人注目的發現與記憶保留有關。超過80%的LLM使用者難以準確回憶他們剛剛撰寫的文章中的引用,沒有人能完全回憶。這不是小問題。

研究顯示,AI生成的文章未被深入內化。獨立構思句子、糾結於詞彙選擇和論點,能建立強烈的記憶痕跡。但當AI生成內容時——即使使用者進行編輯——大腦將其視為外部內容,無法完全吸收。

這個問題不僅限於簡單回憶。LLM組別在寫作後不久也難以引用自己的文章,顯示出缺乏認知擁有感。如果學生無法回憶他們「寫」的內容,他們真的學到了嗎?

AI對原創性的影響

人工評分者指出,許多LLM文章感覺單調且缺乏個性,常使用重複的措辭。自然語言處理(NLP)分析支持這一點,顯示LLM輔助文章更為一致,變化較少,依賴可預測的語言模式。

這種思想同質化可能導致知識上的從眾。當無數學生使用相同的AI工具完成作業時,獨特的觀點和創意洞察會丟失,取而代之的是標準化、演算法驅動的輸出,缺乏人類思想的豐富性。

認知債務的代價

「認知債務」的概念類似於軟體中的技術債務——短期便利帶來長期挑戰。雖然AI當下簡化了寫作,但長期可能削弱批判性思考,增加被操縱的脆弱性,並扼殺創造力。

在研究的最后階段,從LLM轉向獨立寫作的學生顯示出較弱的神經聯繫,與未使用AI的組別相比,alpha和beta腦網絡的參與度較低。先前的AI依賴使他們在獨立任務中準備不足,因為他們的認知網絡未得到充分鍛煉。

這可能導致一代人難以:

  • 獨立解決問題
  • 批判性評估資訊
  • 產生原創想法
  • 進行持續的深度思考
  • 對工作擁有知識上的主導權

搜尋引擎:平衡的替代方案

研究發現,使用搜尋引擎的組別介於AI和獨立組之間。他們與僅用大腦的組別相比,神經聯繫有所減少,但比LLM使用者保持更強的認知參與。搜尋引擎使用者需要主動評估和整合資訊,而不像接受AI生成內容那樣更被動。

這凸顯了一個關鍵差異:認知努力的程度很重要。搜尋引擎提供選項,要求使用者批判性思考。LLM提供答案,通常只需接受或拒絕。

重新思考教育中的AI

這些發現對教育界來說是一個關鍵時刻。隨著全球學校探索AI整合,麻省理工研究提供了謹慎的證據。過度、不加反思地使用LLM可能改變大腦處理資訊的方式,帶來意想不到的後果。

對教育工作者而言,結論是微妙的。AI工具不應被禁止——它們廣泛且對某些任務有價值。相反,研究建議優先進行獨立工作以增強認知能力。挑戰在於設計課程,平衡AI的益處與無輔助思考的機會。

策略可能包括:

  • 無AI任務以培養批判性思考
  • 在掌握核心概念後逐步引入AI
  • 明確指導AI何時支持或阻礙學習
  • 優先評估過程而非輸出的評量方式
  • 定期進行無輔助的認知發展練習

麻省理工研究並未否定AI,而是呼籲其謹慎使用。正如我們平衡螢幕時間與體育活動,我們必須平衡AI輔助與認知鍛煉,以保持心智敏銳。

未來研究應專注於設計增強而非取代認知努力的AI工具。AI如何放大創造力而非標準化?這些問題將引導教育科技的未來。

為什麼思考很重要

核心訊息:使用你的大腦仍然至關重要。這不是對前AI時代的懷舊,而是認識到認知技能需要積極培養。如同肌肉,心理能力通過挑戰而成長,缺乏挑戰則會衰退。

麻省理工研究既是警示也是機遇。警示:不加控制地依賴AI寫作工具可能侵蝕定義人類智能的認知技能。機遇:通過理解這些風險,我們可以創造系統、政策和實踐,利用AI增強而非削弱人類思想。

認知債務提醒我們,便利是有代價的。在追求效率的同時,我們必須保護推動有意義學習的深度思考、創造力和知識擁有感。未來屬於那些能深思熟慮地平衡AI使用與自身心智力量的人。

作為教育工作者、學生和終身學習者,我們面臨選擇:滑向認知依賴,或塑造一個AI放大人類潛能的世界。麻省理工研究闡明了利害關係。下一步由我們決定。

相關文章
Sam Altman:ChatGPT 查詢使用最少的水 - 相當於 1/15 茶匙 Sam Altman:ChatGPT 查詢使用最少的水 - 相當於 1/15 茶匙 OpenAI 執行長 Sam Altman 在週二一篇探討 AI 全球影響力的部落格文章中,揭露了 ChatGPT 資源消耗的驚人數據,指出平均每個查詢會消耗約 0.000085 加侖的水,大約相當於十五分之一茶匙的水。在討論用水量的同時,Altman 也說明了能源需求,他表示每次查詢約消耗 0.34 瓦時,相當於烤箱短暫運轉或高效率燈泡運作幾分鐘的耗電量。將 AI 對環境的影響具體化Sam Al
人工智慧中的道德:應對自動化中的偏見與合規挑戰 人工智慧中的道德:應對自動化中的偏見與合規挑戰 隨著自動化深入各行各業,倫理考量逐漸成為重要的優先考量。決策演算法現在影響著社會的重要層面,包括就業機會、金融服務、醫療照護和法律程序,這些都需要嚴格的倫理框架。如果沒有適當的治理,這些強大的系統有可能擴大現有的不平等,並造成廣泛的傷害。瞭解 AI 系統中的偏見演算法偏見的根源往往在於有瑕疵的訓練資料。歷史上的歧視模式可能會在機器學習模型中延續下去,例如根據過去決定中反映出的受保護特徵而使申請人處
川普宣佈人工智能應用路線圖以改造主要商業領域 川普宣佈人工智能應用路線圖以改造主要商業領域 美國總統唐納德‧川普(Donald Trump)的政府已為美國在人工智慧領域的領導地位勾勒出一項雄心勃勃的策略,重點在於促進技術真理、減輕監管負擔、向全球輸出美國的人工智慧能力,以及優先發展基礎設施。政策架構概述白宮發佈了全面的「AI 行動計畫」,這份 28 頁的文件確立了美國 AI 發展的三項基礎原則:透過私營部門的參與加速 AI 創新加強國內人工智慧基礎設施能力在 AI 標準與安
評論 (0)
0/200
回到頂部
OR