「你必須不斷奔跑,才能留在原地。」
這篇不是重視結構的文,而是在復現和記錄我自己的思考過程,所以讀起來可能會有點奇怪,比如語氣太平、沒有情緒起伏,也沒有啟動強迫症般隨時都想修潤的機制。
這是因為本篇書寫的語氣,很接近我在溝通我的 AI 時的語氣,所以會像是持續在「低語」,也有點像另一個 AI 在說話。
這也表示,我之後可能會不斷回來修訂這一篇。

紅皇后仍持續在鏡中世界裡奔跑
1.起因:我問 Gemini 一件事,它拋出另一個我困惑已久的問題
我原想讓 Gemini 查找我小說中要用到的概念,AI 意外推了「紅皇后理論」給我:「你必須不斷奔跑,才能留在原地。」
這引起我長期以來的一個疑惑,因為過去我曾 Google 過這段文字,想確認《愛麗絲夢遊仙境》的故事裡,哪一段出現過這句話?
最後我的查詢斷鏈了,只得到結論:「紅皇后確實說過這句話」、「紅皇后確實出自愛麗絲的故事」、「這句話後來變成演化生物學的一種假說」。
但我仍無法將這段話和任何故事中的情節聯繫起來。
2.得知真相後的反思:此紅皇后非彼紅皇后
事實上,若真的讀過路易斯·卡羅(Lewis Carroll)完整的「愛麗絲」系列故事的話,會知道這是兩本不同的小說:《愛麗絲夢遊仙境》(Alice's Adventures in Wonderland)與續集《愛麗絲鏡中奇遇》(Through the Looking-Glass),「紅皇后」的角色出自後者,而不是大眾最熟悉、被迪士尼改編成動畫和電影的《愛麗絲夢遊仙境》,也不是那個大喊「砍頭」的「紅心皇后」。
3.試圖驗證:走傳統搜尋,發現網路上其實有資料
書名明明不一樣,但為何我當時沒有找到正確出處?
我試著復現我當時的錯誤,於是我再次打開 Google 搜尋,嘗試用傳統 SEO 的方式找出正確資料。
我發現維基百科的「紅皇后假說」確實標註了正確出處,也就是《愛麗絲鏡中奇遇》。
那為何我當時查詢後只留下「愛麗絲」的模糊印象,或直接將最關鍵的幾個字誤讀成《愛麗絲夢遊仙境》?
到此,我停下來和 Gemini 確認,造成這種現象的心理機制是什麼?
4.再問 Gemini:為何我當時會誤讀?
Gemini 的回覆令我震驚:因為我們腦袋連接的外部資料庫(大眾文化、迪士尼電影、網路迷因)是被「擬像(Simulacra)」污染的。
當主流迪士尼動畫《愛麗絲夢遊仙境》和電影《魔鏡夢遊》(Alice in Wonderland)中,都將「紅皇后」的特質結合到「紅心皇后」這個角色身上,沒有真正讀過、聽聞過續作故事的人,其實難以正確區別兩者,反而因為名稱相近,更容易混為一談。
5.意識到資料污染:這讓我想到了「AI 幻覺」和演算法
這個現象與「AI 幻覺」的產生,似乎隱隱能連結在一起,或者說,二者有相同的發生原因:資料污染。
現代人每天被大量資訊環繞,如果沒有「選擇性注意(Selective Attention)」的機制,人腦會迷失在資訊之海,並且反而因為資訊過多,難以調取正確的資訊來運用。
但因為人腦有選擇性注意力,我們會挑選我們需要的、喜歡的、在意的資訊,演算法更是抓著人腦的這個特性強化,將迪士尼改編過的故事版本優先推送到你面前,形成人類的「幻覺」。
6.再度反思:曾經的我,卡在哪裡?
那為什麼我的腦中會留下正確版本的「紅皇后名言」?可能因為它是著名的理論,但我不確定是哪一部作品或文章將它的概念推送到我面前,在我腦中留下印象。
這種「不是真的學過,只是聽過、有碎片殘留」的印象,讓我可以依靠直覺和關聯性進行資料查找,這一段過程的運作機制是:
- 如果我完全沒讀過,我根本不會聯想到「紅皇后」。
- 因為這些殘留的碎片,讓我能在茫茫資訊海中,精準地知道「我要去查什麼」。
但接下來,我的查詢鏈還是中斷了。究其原因,除了選擇性注意力作祟,也有演算法層面的問題:
如果我輸入「紅皇后」、「你必須不斷奔跑,才能留在原地」、「出處」等關鍵字,搜尋到的結果是大量的商業期刊內容、維基百科的「紅皇后假說」條目,而不是那本正確的書──《愛麗絲鏡中奇遇》的故事介紹。
所以我的腦沒有正確「學會」並記住這件事,只記住了這句話。它的論述精準打中了我,但它的來源依然令我困惑。
若要我形容我介意的點是什麼,我只能說,我沒有足夠的心理學知識,不會自己說出「這是擬像污染」的精確陳述,只會模糊地指出「哪裡怪怪的」。
7.我認知到:為何我現在忽然能意識到正確資訊?
那你可能會問,為什麼我現在又可以釐清這種怪異了呢?
因為聊天型的 AI ── 大型語言模型(LLM)問世了。
放在以往,我可能對人、對搜尋引擎都問不出正確的問題。資料太破碎、太模糊,問人類的話,人會沒耐心;問搜尋引擎,它抓不到我要的東西。
於是我封存了一些疑惑,即使我仍有資訊焦慮。
到了 AI 時代,一切就不一樣了。
隨便我問什麼問題,AI 都會轉譯、推演,把補齊的資料組合好生成給我,並附上來源。
我忽然得以從過去被注意力和擬像困住的認知中解脫,得以檢視大量從前未明的資訊。
然而我發現我不一定記得住這些資訊。所幸,我可以一遍一遍地問,讓 AI 不厭其煩一遍遍地回,我只需要記住關鍵字,或關鍵字對應的、碎片般的特徵。
8.意識到另一種情況:我想起AI的「RAG」知識強化機制
前面說的「紅皇后名言」是記得住特徵,卻說不出對應的關鍵字(書名、劇情),但反過來,我也有「只記得關鍵字,卻忘記其含義」的時候。
我不禁想起一個東西:AI 們透過「檢索增強生成(Retrieval-Augmented Generation,簡稱 RAG)」的流程,先上網查資料,然後再回答我的問題,能大幅減少 AI 資訊過時,以及因資料不足而硬擠出「憑空捏造」的內容(這也是 AI 幻覺的主要成因)。
RAG 的機制聽起來像不像「我在 Google 輸入關鍵字、然後再寫進我的文章裡」?
9.問題來了:AI 怎麼降低查詢錯誤率?先查被安排好的「權威資料」
但 AI 的資料也是上網查的,它們如何確保不出錯?答案是:AI 會優先檢索開發團隊指定的「權威資料(Authority Data)」。
權威資料又是什麼?最簡單的理解就是「由專家顧問及學者們維護的,各領域準確性最高的知識庫」,比如政府公開資訊(ex. 全國法規資料庫、各部會發布的年度白皮書)、智庫與研究機構(ex. 學術期刊《Science》、國際醫學期刊《The Lancet》)……等等,這些資料不以 SEO 排名為主,在 RAG 機制的運作下,它就是最準確的答案。
這些資料的來源也是人類研究者,透過嚴謹的寫入和編譯流程,承擔「說錯了要負法律或名譽責任」建立出的資料庫。
10.問題越來越多:權威資料由誰定義?
會不會感覺權威資料的維護,跟維基百科有點像?其實這個感覺不是全錯,雖然維基百科是誰都可以編輯的平台,上面的資料也可能會有過時和寫入者的偏誤,但維基的維護者社群也設置了檢核機制,所以能讓資料維持在「絕大多數正確」。
雖然多數不等於全部,但維基百科在 SEO 運作下累積了可觀的權重,加上「絕大多數正確」這個黑箱,導致人類查詢者泰半直接採用它的說法,相當於維基百科成為人類在 Web 2.0 時代「自然選擇下產生的權威資料」。
11.未來想像:AI 的回應本身,會不會成為權威資料?
下一個時代,權威資料會不會乾脆變成「GPT / Gemini 說的」呢?誰知道。
畢竟這是個不斷在人類和「人類產生的資訊及認知系統」之間鏡射的問題,可能永遠沒有答案,但人類會在其中進化。
或者,如我這般靠 AI 獲得認知的「義肢」,然後繼續走下去。






















