Reddit 上有人寫了一段話,我看完愣了一下。
他重度使用 ChatGPT 六個月後,做事變得很順:先想一分鐘,把背景丟進去,拿一份草稿,再自己修。成品不差,效率也高。直到有一天,他只是要在沒有 AI 的情況下寫 300 字筆記,突然寫不下去。不是完全不會寫。
是受不了那個很爛的第一版。
這個 Reddit 經驗比「ChatGPT 讓人變笨」更接近問題核心。你可能沒有失去能力,你失去的是忍受自己還沒想清楚的耐心。以前寫東西本來就會先很醜,句子卡、方向散、第一段像沒睡醒。ChatGPT 把你跟爛草稿相處的那段時間拿掉了。拿掉久了,你會開始以為那段本來就不重要。
但那段才是判斷形成的地方。
台灣社群上也有類似焦慮。有人問 ChatGPT 用太多會不會變笨,有人說自己「懶得查資料,就問 AI」,也有人擔心工具一消失,自己會被打回原形。這些話聽起來像工具焦慮,底下其實是在問另一件事:
如果第一步不是我想的,後面再怎麼修改,還算不算我的判斷?
ChatGPT 讓人變笨?問題在你跳過卡住的那 10 分鐘
ChatGPT 不會因為你拿來翻譯、修信、整理表格,就把你變笨。
比較麻煩的是另一種用法:你還沒想清楚,就先叫它幫你起頭。
「幫我想一下怎麼切。」
「先給我三個方向。」
「這份報告大綱怎麼排?」
這些指令看起來不像代寫。你後面還會改,還會刪,還會補資料,甚至會花一個小時把它磨成自己的語氣。問題是,題目一開始就被它切好了。你後面當然還有判斷,但那是在它給出的幾個選項裡挑,不是先問自己這題到底該怎麼看。
所以我現在會先問自己:這件事是在整理我已經有的東西,還是在替我想第一個方向?翻譯、摘要、改錯字、整理格式,可以早點交給 AI;大綱、立場、切角、第一句話,我會先自己留一下。
這兩種外包看起來都叫「用 AI」,但風險完全不同。
文字可以早交出去,起點留給自己。
MIT 那篇研究真正測的是擁有感
先把恐慌拿掉。
MIT Media Lab 那篇實驗其實很窄:54 個人寫文章,分成 ChatGPT 組、搜尋組、自己寫組。研究者關心的是三件事:這篇像不像自己的、內容還記不記得、寫的時候大腦有沒有真的參與。整個研究範圍跟智商或 IQ 無關。
用 ChatGPT 的那組,三項都比較差。他們比較不覺得文章是自己的,記不太清楚內容,寫作時的參與指標也比較低。後半段更容易被媒體拿來下標:研究者讓部分參與者從「用 ChatGPT」切到「自己寫」,觀察拿掉工具後會不會恢復。那一輪只有 18 個人,只能當早期訊號,不能當定論。
這裡要慢一下。
這篇研究自己其實列了很多前提:MIT 的專案頁 說它只是預印本、任務也很特定,不能外推到所有 AI 使用。Tech & Learning 的訪談 也講清楚:研究範圍跟 IQ 無關,作者也跟「腦腐」那種說法切割。後面有人從樣本和 EEG 分析提出質疑(Stankovic et al. 的 arXiv 回應),Scientific American 的態度也很保守:有趣,但還不能當定論。
用同一個研究回頭看,它反而不是替恐慌標題背書,而是在提醒你:先交出第一版時,失去的可能是擁有感和記憶,不是智商。
所以我不會把它讀成「ChatGPT 讓你變笨」。
更貼近研究結論的講法是:至少在這個寫作任務裡,先用 ChatGPT 寫第一版的人,比較不覺得那篇文章是自己的,也比較記不住自己寫了什麼。
這個差別很大。
前者會把你推進恐慌。後者會逼你檢查自己的做事順序:到底是哪一步太早交出去了?
MIT 跟 Microsoft Research 量的是兩種順序
如果只讀 MIT 那篇,你會很容易跳到一個太簡單的結論:那就少用 AI。
我原本也差點收在這裡。後來看 Microsoft Research 談後設認知,才發現問題可以反過來看:同一個 ChatGPT,也可以回頭問你「你原本想做什麼」「這個輸出有沒有偏掉」「有沒有相反觀點」。教育現場幾個 AI 輔助寫作和探究式學習研究也很像:AI 真的能幫學生修正理解,前提是學生還站在任務裡,沒有被答案拖著走。
把兩邊放一起看,差別在順序。
MIT 那種順序是:AI 先寫,人接手修。
另一種順序是:人先想,AI 反問。
重點是誰先開始。AI 先開始,你很容易變成編輯:挑好壞、修順序、補語氣。你先開始,AI 才比較像教練:反問、反駁、逼你把話講清楚。
Carr 那本 The Shallows 幫我補了一句提醒:工具不只是省時間,也會改變你把注意力放在哪裡。ChatGPT 特別麻煩的地方,是讓你習慣「下一句已經有人接好」這件事。你還是在查資料、改文字、交成果,但停在問題裡的時間變短了。
Mollick 的 Co-Intelligence 提供另一個方向。AI 真的可以扮演共同工作者、老師、教練;但我反而會這樣讀:如果它是共同工作者,那你就更不能把第一個決定交出去。共同工作者可以幫你反駁、補洞、整理;第一個判斷還是要先寫下來。
把這些來源放在一起,界線就變清楚了:
AI 像教練還是像拐杖,差在你有沒有先留下自己的第一步。
這篇分析還有6個章節:
- 「先給我三個方向」這個 40 分鐘陷阱 — 你以為自己在選答案,其實先接受了 AI 幫你切好的題目。
- 95.9% 勞工用 ChatGPT,沒人問第一步是誰想的 — 當效率變成基本配備,最容易被藏起來的是難看的第一版。
- Mollick 的「共同工作者」放在四種任務上 — 同樣是用 AI,整理資料和替你決定方向不是同一種風險。
- 先寫十分鐘爛東西,再讓 AI 挑錯 — 真正能保住判斷力的,不是不用 AI,而是讓它晚一步進場。
- 我目前的判斷 — 這篇不是反 AI,而是在問你把哪一個步驟太早交出去了。
- 追蹤 — 這個判斷有明確推翻條件,等長期研究繼續驗證。
→ 完整分析(3 本書 + 4 篇論文 + 2 個 podcast + 6 篇文章的交叉比對)在讀角獸
讀角獸——帶著一個問題讀完所有英文來源,找出不同作者互相矛盾的地方,寫成有立場的判斷。更多主題 → ducorn.com






















