
你上一次真正「啃」一個問題,是什麼時候?我指的是讓一個問題在腦子裡住著一段時間,走路時想,洗澡時想,睡前忽然冒出一個念頭,隔天醒來又忍不住繼續推敲,甚至有時會進入「心流」狀態,不知不覺半天就過去了。
但我最近發現,這種狀態在自己的工作裡變少了。這是因為 AI 太好用了,當一個問題出現,我很自然會打開對話框,請它幫我整理脈絡、拆解觀點、提出可能方向,甚至先給我一版可用的大綱。很多時候,原本要花半天整理的東西,現在可能十分鐘就有一個可討論的版本。
但也就是在這種「太快有東西」的狀態裡,我開始有一點不安。答案變快了,工作推進也變快了,但是不是也少掉了某些原本讓判斷力更成熟的過程呢?
真正困難的工作,常常是讓問題成形
我以前很喜歡那種被問題困住的狀態。這句話聽起來有點奇怪,因為被問題困住,當下並不舒服,甚至會讓人煩躁,但它帶來的滿足感很特別,結束之後,你知道自己真的和一個問題正面交手,而且「贏了」。
我記得過往在工作中,一開始以為的問題看起來很明確,像是業績沒有起來、團隊執行遇到某個障礙,或某個計畫推動速度太慢。可是認真思考之後,你會發現事情沒有那麼單純。A主管說是目標沒有被落實,第一線夥伴說是資源不足,跨部門單位覺得彼此配合成本太高,每一個說法都有部分成立,卻又沒有一個說法足以解釋全部狀況。
這種時候,我必須讓問題成形。把彼此矛盾的說法放在一起,試著分辨哪些是症狀,哪些是原因,哪些只是大家習慣使用的解釋。很多答案不會在會議室裡立刻出現,但隨著問題越來越清晰,解法也很自然跟著浮現。
我一直覺得,這種讓問題成形的時刻,是工作最迷人的地方。那是一種很特別的成就感。你終於把一團混亂,整理成一個可以被討論、被解決的問題。那個「啊,原來是這裡」的瞬間,感覺超棒。
AI 給的,是像答案的東西,不是答案本身
彼得・杜拉克反覆提醒管理者,效能的核心不是「把事情做對」,而是先分辨什麼才是「做對的事」。他常被引用的一句話,大意是:把根本不該做的事做得很有效率,本身就是一種浪費。我越來越能體會這個提醒。在 AI 的協助下,我可以把「把事情做對」這件事做得越來越快,但「做對的事」這項功夫,並沒有同步變強。
並非 AI 讓人不思考,常常我和 AI 對話時其實也在思考,甚至它可以幫我看見盲點、補上資料、提供反例,讓我更快進入問題的不同面向。比較正確的說法是,AI 讓我太快得到一個「像答案的東西」。它可以很快整理出三個原因、五個方向、七個建議,而且語氣通常篤定,結構也看起來完整。這些回應未必錯,有時候還相當有幫助,問題是:它們太容易讓人以為問題已經被解決了。
以前面對一個模糊的問題,我必須先把自己的理解寫出來、畫成圖解,才知道哪裡不清楚。現在我很容易先請 AI 幫我整理框架,再在框架上修改。這當然節省時間,但差別在於,原本那些笨拙、緩慢、反覆推翻自己的步驟,正是判斷力被訓練的過程。
當一個答案很快出現在眼前,我們會更容易進入編輯模式,而不是探索模式。編輯模式關心的是這個答案哪裡可以修得更順、補得更完整、說得更漂亮。探索模式關心的是我到底在問什麼,這個問題是否被正確命名,還有沒有另一種完全不同的解釋。
AI 很擅長協助我們編輯、比較、擴充與校正。但如果太早運用,我們可能還沒來得及形成自己的初步判斷,就已經開始在 AI 給出的結構裡微調。這是我覺得最值得警惕的地方。
AI 像隨時可查的百科,但不會替你做現場判斷
前陣子看美劇《菜鳥警察大叔》時,有一段情節讓我印象深刻。劇中主角約翰諾蘭是一位警官訓練員,負責以在職訓練的方式督導剛從警校畢業的新手警官。這些新人不只是要懂法規、會背流程,更要在真實執勤中學會判斷,因為一個錯誤判斷可能讓自己、同僚或民眾陷入危險。
有一次,諾蘭接手一位即將完成實習、紀錄漂亮的新人。照理說他應該具備基本執勤能力,但第一天出勤,諾蘭就發現事情不對勁:這位新人連交通罰單都開不好,處理家暴案件時也不知道基本步驟,面對現場壓力更顯得手足無措。
後來諾蘭才知道,原本帶他的資深訓練員即將退休,為了維持自己的完美訓練紀錄,過去一年都只安排最不容易出錯的任務給他,甚至在關鍵時刻幫他擋掉真正困難的判斷。於是這位新人表面上紀錄很好,也能把警官手冊背得很熟,卻沒有真正經歷過實務情境的磨練。
我看到這裡時,想到的並不是警察訓練,而是我們現在使用 AI 的方式。AI 很像一本隨時可以查閱的百科,它能快速提供原則、步驟、清單與標準答案,這當然有用。但一個人真正的判斷力,並不會因為把百科背得熟就自然形成。它需要在現場被磨練,需要在不完整的資訊裡做選擇,也需要在錯誤之後被回饋與修正。
如果我每次遇到困難問題,都太快讓 AI 幫我整理、命名、給方向,某種意義上,我也像那個被訓練官保護過度的新人。表面上工作紀錄很好,產出也更快,但真正遇到複雜情境時,我可能少了幾次自己面對問題、承擔判斷、修正假設的機會。
被省掉的,是判斷前的摩擦與碰撞
知識工作者真正困難的能力,往往不在於知道更多資訊。更難的是,在資訊不足、選項衝突、標準不明、後果不確定時,仍然能做出有理由的取捨。這種能力,我會把它稱為判斷力。
它需要摩擦:你要比較幾個彼此矛盾的解釋,也要願意在還沒有答案的狀態下繼續推敲。這個過程看起來沒有效率,但那種「慢慢懂了」的感覺,就是從這裡來的。
AI 省下時間的同時,也可能省掉這些摩擦。它幫我們快速整理問題、列出選項、生成結論,但這些步驟原本就是判斷力被磨練的地方。當這些摩擦被省掉,我們也可能少了把判斷力磨利的機會。
判斷力的訓練場,通常出現在答案尚未成形之前。那是一段有點混沌的狀態,你還說不清楚問題在哪裡,也不知道哪個方向比較對,但你願意繼續思考、繼續把幾個可能性放在心裡評估。那段時間看起來沒有產出,卻正在累積真正的理解。
我最近開始注意到自己對「模糊」的耐受力。AI 讓人習慣了快速得到答案,但管理問題、職涯轉向這類事情,原本就不會在短時間內裡清楚,它需要在不確定的狀態裡慢慢浮現,而我發現自己比以前更難忍住不去找捷徑了。
當程式一秒就能跑,完成任務的時間反而慢了
在 AI 做得特別好的事情裡,Vibe coding 是特別具代表性的:它讓許多人趨之若鶩,因為即便不會寫程式也可以快速「做出成品」,社群上隨處可見看似完整的專案與酷炫的 demo,但卻不一定能產出真正的價值。近年幾個研究與實務觀察共同指出,資深工程師在複雜程式庫中使用 AI 工具時,實際完成任務的時間反而平均慢了約 19%。
這並不是因為 AI 程式寫得不好,而是因為為了讓 AI 能理解脈絡、檢查與修正它產生的程式碼、以及決定是否合併這段程式碼,開發者仍需要投入大量的「認知摩擦」與「溝通成本」。AI 省下的主要是「打字」與「輸出」時間,但並沒有同步減少「需求拆解、架構設計、長期維護風險評估」這些真正決定系統品質的決策時間。在這種情境下,Vibe coding 很容易變成一種「快速玩具生成器」:看起來光鮮,但背後缺乏穩定的交付流程、品質關卡與責任歸屬,最終多數專案只停留在「有趣」,很難轉化為持續營運或可維護的產品。
這正是為什麼,當 AI 讓答案來得太快,我們反而要更刻意保留「思考的摩擦」:在按下送出之前,先讓自己把問題拉回紙上、畫出草圖,甚至先寫出一個不那麼完美的版本,而不是一開始就把判斷權完全交給 AI。唯有在這樣的節奏裡,Vibe coding 才有機會從「技術秀」轉向「系統化能力」,真正幫我們練習,而不是省掉練習判斷的過程。
我開始練習延後使用 AI
我並沒有打算不用 AI。那不實際,也沒有必要。事實上,我現在許多工作仍然大量使用 AI,從文章大綱、資料整理、觀點比較,到課程設計與簡報結構,它都已經成為我工作流程的一部分。
但我開始有意識地調整一件事:延後使用 AI。
延後使用 AI 的意思很簡單。在面對重要問題時,先留一小段時間給自己,讓自己的初步判斷有機會浮出來。這段時間不一定很長,可能只有十分鐘,也可能是一趟散步,或者是一頁手寫筆記。重點是,在 AI 幫我整理之前,我會先問自己:我目前怎麼看這個問題?我卡在什麼地方?最不確定的是哪一點?
這樣做有一個差別。當我一開始就問 AI「你怎麼看?」我很容易被它提供的架構帶著走。但如果我先寫出自己的想法,再請 AI 挑漏洞、補盲點、提出反例,它就比較像一個校正夥伴,而不是替我決定思考起點的人。
我最近在寫文章或設計課程時,會刻意先不用 AI。先把題目寫在紙上,列出我真正想處理的問題、可能的讀者困惑,以及我目前能提出的判斷。有時候寫著寫著才發現,我卡住的根源不是資料不足,而是還沒想清楚這篇文章要處理哪一個問題,或是我自己要採取哪個觀點。
等到這些東西稍微成形之後,我再把自己的初稿或想法丟給 AI。這時候 AI 的幫助反而更大,因為我請它做的事情是校正,而非替我決定思考起點。我可以問它:這個論點哪裡有問題?這個標題是否承接主軸?這段是否太過一般論?這時候的對話品質,通常會比一開始就請它產出答案更好。
讓問題先在自己心裡沈澱一下
我也開始重新重視一些看起來沒有效率的時間。散步時不一定聽 podcast,搭車時不一定滑手機,早上開始工作前,有時候先把前一天卡住的問題寫幾行。這些做法聽起來很普通,甚至有點老派,但我發現它們對我有用。
有幾次我在設計文章架構時,一開始很想直接請 AI 給我三種版本。後來我忍住,先把問題放著,帶著它去走一段路。走到一半才發現,自己真正想寫的並不只是「AI 是否讓人變懶」這個面向。更貼近我感受的,其實是「當 AI 幫我們跨過思考的痛苦,我們是否也少掉了練習判斷的機會」。這個方向的改變,決定了整篇文章的層次。
如果一開始就請 AI 幫我擬大綱,它也可能給出類似方向,但那個方向未必會變成我的判斷。差別在於,當這個轉向是自己想出來的,我會更知道為什麼要這樣寫,也更能判斷後面的段落該留、該刪、該往哪裡推進。
我現在越來越相信,某些問題需要先在自己心裡沈澱一下。不一定要急著得出答案,延宕會讓我知道自己真正不懂的是什麼,也讓我在使用 AI 時比較不容易被表面的效率吸引。
判斷力,是在思考中鍛鍊的
AI 已經成為知識工作的一部分,它可以幫我們節省大量整理、搜尋、改寫與比較的時間。真正需要調整的,是什麼時候讓 AI 參與。
如果一個問題只是例行工作,讓 AI 早一點介入沒有太大問題。但如果一個問題牽涉到策略、定位、價值判斷或人生選擇,我會希望自己先寫下自己的初步理解,先經過一小段思考答案的時間,再讓 AI 進來協助我整理與校正。
我現在想替自己保留的,就是這樣一小段思考時間。看似有點不符合效率,但它可能正是判斷力重新被鍛鍊的機會。


















