試著一天不用 Google 搜尋。真的只是一天。
我們會從早上就開始感到虛弱。要查個捷運班次時間,得靠記憶或問人。不對,我們得找到懂的人,而不是直接滑手機。要查個詞的英文翻譯,我們得翻出字典,或者根本放棄。要驗證某個新聞是真是假,沒有快速的方法。到了下午,我們開始意識到一件奇怪的事:我們根本不記得「不用 Google 查資訊」是怎麼做的。 那套技能已經被我們遺忘了,或者說,被 Google 翻譯了。
這就是 Latour 要講的「翻譯」(translation)。
一、翻譯:重新定義利益,成為必經之點
不是語言翻譯。這個「翻譯」更激進。
想像一個中世紀城鎮,有多個獨立的工匠:鐵匠、木匠、裁縫,各做各的。他們各有各的利益——鐵匠想賣更多釘子,木匠想買品質好的釘子,顧客想要便宜的釘子。利益衝突,各自為政。
然後出現了一個商人。他說:我有個主意。我可以把釘子從鐵匠那裡買來,統一規格,大量販售給木匠和建築商。我保證你們的品質,保證供應穩定,保證價格合理。
一旦大家同意了,什麼事改變了?這個商人不再只是一個中介,他成了一個必經之點。 所有的釘子交易都要過他。所有人的利益都被他重新定義了。鐵匠不再是「想賣釘子的工匠」,而是「這個商人的供應商」。木匠不再是「想買釘子的工匠」,而是「這個商人的客戶」。甚至顧客的「好釘子」的定義也被重塑了——它不是由工匠的技藝決定,而是由這個商人決定的「規格」決定。
Latour 把這個過程叫「翻譯」。一個行動者透過重新定義其他行動者的身份、利益和角色,把自己變成了無法繞過的節點。
二、Google 做了什麼
Google 不是最早的搜尋引擎。在 Google 之前,有 Yahoo、Altavista、Lycos。人們習慣用這些工具查資訊。搜尋引擎只是眾多資訊獲取方式之一。
然後 Google 做了什麼?它沒有發明新的技術(PageRank 是革新,但不是無中生有)。它改變了人們對「查資訊」這件事的理解。
Google 說:我們現在所有的資訊需求,都可以透過它的搜尋框滿足。學生的研究論文?過它。記者的新聞查證?過它。顧客的商品比較?過它。甚至我們對自己的了解——我們會 Google 自己的名字。
Google 翻譯了「找資訊」。它把這個行為從「多種方法中選一種」變成了「Google 或什麼都不做」。
結果是什麼?Google 成了一個必經之點。 不是因為它强制我們,而是因為用過它之後,其他方式都顯得太笨拙了。圖書館員不再被問「哪裡有這個資訊」,他們被重新定義為「Google 搜不到的東西的專家」。印刷百科全書變成了「Google 離線版本」(如果還有人care的話)。
最狡猾的部分是:我們開始相信 Google 搜尋就是「客觀的資訊」。 搜尋結果排序的演算法決定了我們看到什麼,但這套規則被黑箱化了,我們看不見。我們以為自己在「客觀查資訊」,其實我們在用 Google 定義的「資訊」框架。
三、AI 的翻譯進行式
現在 AI 也在做同樣的事。
ChatGPT 正在翻譯「寫作」。 不是說 ChatGPT 會完全取代人工寫作,而是它改變了「寫作」的定義。現在寫作可以分為「我寫初稿,AI 優化」或「AI 寫初稿,我編輯」。甚至有人整篇都給 AI,自己只負責檢查。寫作不再是「思考後打字」的完整過程,它被分解成多個可以代理的環節。一旦我們習慣了這套流程,要回到「完全手工寫作」就像一天沒用 Google 一樣荒謬。
Claude Code 正在翻譯「寫程式」。 程式設計師的角色正在改變。從前我們得了解整個演算法邏輯,自己實現每一步。現在我們可以告訴 Claude Code「我想要一個排序函數」,它給我們程式碼。我們的角色變成「懂得怎麼 prompt,懂得怎麼檢查程式碼」,而不是「懂得怎麼寫程式碼」。
AI 搜尋正在翻譯「找答案」。 不用查資料、綜合、思考。AI 直接給我們答案,附帶來源引用。我們的角色從「資訊整理者」變成「答案檢驗者」。
這些翻譯都在進行中。還沒有完成,但已經改變了生態。一旦完成,AI 就會成為「必經之點」。 不是國家強制的,而是因為往 AI 這邊走,所有其他尋路的能力都被弱化了。
四、黑箱化:當系統「正常運作」時我們看不見它
但有個問題:翻譯只有在人們不質疑時才有效。
一旦有人問「為什麼 Google 的搜尋結果是這樣排序的?」,Google 就不再是「客觀工具」,而是成了「有隱藏規則的中介」。一旦有人問「為什麼 AI 的建議是這個而不是那個?」,魔法就破碎了。
所以翻譯的第二步是黑箱化(black-boxing)。
黑箱化是什麼?就是讓系統變成「看不見內部、只看輸入和輸出」的東西。飛機上的黑匣子(其實是橙色的),記錄飛行數據,但一般乘客不看,不需要看。我們用手機,不需要懂晶片是怎麼運作的。我們搭捷運,不需要懂軌道是怎麼鋪的。
黑箱化其實不是壞事。人類社會複雜,不可能每個人都理解每個系統。黑箱化讓分工成為可能。
但黑箱化也有個危險的副作用:人會停止思考,把黑箱當成自然界的一部分。
Google 搜尋現在對大多數人來說就是一個黑箱。演算法在裡面運作著,決定著我們看到什麼新聞、什麼商品、什麼想法。但我們從不質疑這個決定是怎麼來的。它感覺很自然,就像「事實就是這樣」。
AI 生成的推薦、回答、內容,也在快速黑箱化。我們問 ChatGPT 一個問題,得到一個答案。那個答案來自什麼?我們不知道。它訓練的數據是什麼?我們不知道。裡面有沒有偏見?可能有,但看不見。
黑箱化最危險的地方就在這裡:一旦系統「看起來在正常運作」,人們就停止了質疑。
Google 搜尋沒有出現大 bug,大多數人就不會問「這個排序是怎麼決定的」。AI 寫出來的文章「看起來沒問題」,用戶就不會問「這是怎麼生成的」。
黑箱運作得越順利,它就越難被看透。它越難被看透,人們就越依賴它。它越被依賴,它的權力就越大。
換個角度說:每一次我們為了便利而放棄追問「這個決定是怎麼來的」,我們其實都在進行一次主權讓渡。 不是被搶走的,是我們自己交出去的。我們把「決定搜尋結果優先順序」的權力交給了 Google,把「判斷這段文字夠不夠好」的權力交給了 AI。一次一次,我們讓渡的不是某個具體的選擇,而是做選擇的能力本身。
這不是危言聳聽。這是黑箱化最安靜的後果:我們甚至不會注意到自己少了什麼,因為我們已經忘記自己曾經擁有它。
五、Latour 的方法論:追蹤爭議
那怎麼辦?Latour 的建議很激進:追蹤爭議。
黑箱只在「一切正常」時存在。一旦系統出錯、發生爭議、被質疑,黑箱就打開了。我們突然能看到裡面有什麼。
例子:Google 搜尋演算法通常是黑箱。但當有人發現 Google 搜尋結果有性別歧視時——搜女性CEO 出來全是美貌評論——黑箱就被打開了。突然間,Google 不得不解釋自己的演算法如何造成了這個結果。整個系統的邏輯曝光了。
又例子:ChatGPT 在某些查詢上會編造引用、編造事實。一旦這個爭議爆發,黑箱打開了。人們開始問:AI 是怎麼生成的?為什麼會編造?訓練數據哪裡來?
所以 Latour 的建議是:不要等到失敗才看。我們應該主動地制造失敗,主動地質疑。
- 問 Google:你是怎麼排序的?試著用不同的搜尋詞,看結果怎麼改變。
- 問 ChatGPT:你是怎麼知道的?要求它的來源。試著給它相互矛盾的資訊,看它怎麼處理。
- 問我們使用的每個 AI 工具:你有什麼假設?你有什麼侷限?
通常,系統會試圖重新關上黑箱。Google 會說「我們的演算法很複雜」,ChatGPT 會說「我可能會出錯」。但一旦爭議被提出,系統不再完全隱形了。我們開始看見它的骨骼。
六、責任的模糊化
但這裡有個更深的問題。即使黑箱被打開了,責任又怎麼辦?
假設 AI 搜尋引擎給了一個危險的醫療建議。誰負責?
AI 公司會說:這是基於統計規律,我們無法完全控制輸出。醫生會說:用戶應該去看真正的醫生,不是相信 AI。用戶會說:你的系統看起來很權威,我怎麼知道要懷疑?
黑箱化的一個隱藏效果就是責任的擴散。 沒人需要為結果承擔全部責任,因為責任分散在整個網絡中。這對權力者很有利——我們無法指責誰,因為「系統就是這樣」。
Latour 後來關注氣候變遷問題,也發現了同樣的現象。排放溫室氣體的是誰?石油公司、汽車製造商、消費者、政府、金融機構——責任分散在整個網絡,結果沒人被追究。
七、AI 時代,我們應該做什麼
那我們應該怎麼應對 AI 的翻譯和黑箱化?
第一步:意識到翻譯在發生。 當我們習慣使用某個 AI 工具時,問問自己:這個工具改變了我們對「寫作」「編程」「思考」的定義嗎?我們是不是在無意識中同意了它的翻譯?
第二步:保持一些不依賴 AI 的能力。 如果我們完全依賴 AI 來做某件事,我們就失去了議價空間。如果 AI 漲價、下線或被封禁,我們什麼都做不了。維持一些「低科技」的備用方案,不是為了浪漫,而是為了自由。
第三步:主動質疑黑箱。 不要等到失敗。定期問:這個系統怎麼運作的?如果我們不同意它的決定,我們能怎麼改?如果它出錯,誰負責?
第四步:追蹤爭議,參與設計。 當 AI 工具出現問題時,不要只是抱怨。我們應該參與爭論,幫助社會理解這套系統的真實運作方式。
---
現在我們有更清楚的圖景了。Latour 不只是告訴我們「我們在一個網絡中」。他告訴我們:這個網絡中有一些節點正在成為必經之點,而且它們刻意把自己隱藏起來。
下一篇,我們要進一步看:當我們和 AI 形成一個網絡時,誰是主體?誰是客體?這個區分還有意義嗎?
這涉及 Latour 的一個最激進的概念——廣義對稱性原則。用同一把尺去測量人的行動和 AI 的行動。一旦我們開始用這把尺,會看到一些令人不安的東西。






















