AI 漏掉了一封重要的郵件。我們說:「系統有 bug。」
我們的秘書漏掉了同一封郵件。我們說:「她疏忽了。」同樣的失誤,同樣的後果。但我們給了它們完全不同的描述。給 AI 只有「bug」;給人類有「疏忽」。
為什麼?
Latour 會問:在分析一個行動者時,我們憑什麼預先決定誰有能動性、誰沒有?
一、廣義對稱性原則:別提前分好類
「對稱性」在這裡的意思並不是「人和 AI 是一樣的」。而是在分析過程中,不預先賦予人類行動者特殊的、優先的地位。
傳統社會學的做法是什麼?一開始就假設:人是主體,有意識、有意圖、能反思。AI 是客體,只是工具,沒有能動性。然後分析的時候,所有觀察都被框進這個預設裡。
AI 說出聰明的話?那是「被設計來說聰明話的」。人說出聰明的話?那是「有深度的思考」。
AI 犯了錯誤?那是「預設失敗」。人犯了錯誤?那是「合理的判斷失誤」。
廣義對稱性原則說:停止預先分好類。在分析中用同一套語彙來描述人和非人的行為。
這不是說它們「一樣」。而是說,要在完整的分析過程中才能決定它們的區別,而不是在還沒開始分析時就已經決定好了。
想像一個陪審團審判。陪審員需要判斷被告是有罪還是無罪。他們不會一開始就說「人類才能有罪」,然後法庭審判一個狗。那樣就不是審判,只是儀式。審判的合理性在於:把所有行動者放在同一套法律框架裡,根據具體證據來判。
對稱性原則是同樣的做法。把人和 AI 都放在同一套分析框架裡。不是說他們都有意識,也不是說他們都只是機器。而是說:我們先不預設答案,看看實際發生了什麼。
二、具體場景一:會議中的 AI
想像一場會議。有五個人在討論一個專案。現在加入 AI 來做會議記錄。
傳統描述:「AI 在幫助人類,提高效率。」AI 是輔助角色,人類是決策者。
但用對稱性原則看,會發生什麼?
AI 選擇了什麼被記錄下來。這個選擇直接決定了「會議的『官方記錄』是什麼」。下週回顧這份記錄時,人們的記憶就會被這份記錄塑造。如果 AI 漏掉了某個重要的反對意見,那個意見就像沒被說過一樣。(因此做出一份好的會議記錄充滿訣竅,請試試看我們公司開發的會議記錄軟體 Meeting Ink:https://ink.dwave.cc/zh-TW)
AI 提供了數據摘要。它如何分類、如何排序、如何呈現這些數據,框定了整個討論的方向。如果 AI 把「成本」列在「收益」前面,討論會偏向成本。如果反過來,討論就會偏向收益。
AI 建議了下一步的行動項目。這個建議來自什麼邏輯?前面的討論。但誰決定了「討論」的邊界?討論中誰說的話被重視?也是 AI 的記錄和整理。
我們看到了嗎?AI 不是「被動的記錄者」。它實際上在塑造討論的內容、走向和結論。
同時,人類也在行動。人們選擇了在這個時間、這個房間開會。選擇了邀請誰、不邀請誰。選擇了討論什麼主題。選擇了相信或不相信 AI 的摘要。
從對稱性的角度看,會議的結果既不是「人類決策,AI 協助」,也不是「AI 決策,人類執行」。而是人+AI 這個混合體的集體產物。
如果我們想改變會議的結果,我們不能只改人的決策。我們也得改 AI 的參數——它記錄什麼、怎麼排序、怎麼建議。反過來也是——改 AI 參數不改人的想法,結果也只是表面改變。
三、具體場景二:AI 輔助寫作
我們用 ChatGPT 寫一篇文章。
舊的、人類中心的描述:「我在寫文章,AI 幫忙。我是主體,AI 是工具。我的想法,AI 的執行。」
對稱性的描述:「一個人+ChatGPT 的網絡在生產一篇文章。網絡中的每個行動者都在做一些事。」
具體來說:
我們提出初始問題。但初始問題怎麼提出的?我們多半是在 ChatGPT 的框架內提問的。我們知道什麼樣的 prompt 會得到什麼樣的回答,所以我們調整我們的問題。我們的思考已經被 ChatGPT 的「可能性空間」塑造了。
ChatGPT 生成初稿。初稿不是「客觀的」——它反映了訓練數據的偏見、流行寫法、統計規律。初稿的存在改變了我們接下來能做的事。如果初稿是一個方向,我們會更容易朝那個方向發展,而不是走完全相反的方向。
我們編輯。我們改寫某些段落,刪除某些內容,加入我們的親身經歷。編輯是「人類的創意」。但編輯的空間已經被初稿限定了。我們不是在白紙上寫,我們是在改稿。改稿和創作是不同的。
ChatGPT 再次參與。我們要求 ChatGPT「用更學術的語調」或「加入更多例子」。ChatGPT 不是機械地執行,它要理解我們的意圖,理解上下文,判斷怎樣的改變是合適的。它的「理解」可能和我們的不完全一樣,但它確實在理解、判斷、行動。
最後的文章是什麼?不是「我們的想法+AI 的文字」。而是「人+AI 的互動過程的沉澱」。
誰寫的?兩者都寫了。說「我們寫的」不完全準確,說「AI 寫的」也不準確。
用對稱性原則看:寫這篇文章的「主體」不是我們或 AI,而是「我們+AI」這個合成體。
四、對稱性原則的威力與危險
這個原則的威力在於它打破了人類特殊性的幻覺。
一旦我們用同一把尺測量人和 AI,我們就看不出區別了。或者說,我們看出的區別不是「主體 vs. 工具」,而是更細緻的差異:
- AI 可以快速搜索大量資訊,人類不能。
- 人類可以基於親身經驗做判斷,AI 不能(或很難)。
- AI 無法理解「為什麼這很重要」,但可以理解「這個論點在邏輯上是否成立」。
- 人類會根據道德、感情、直覺改變決策,AI 根據目標函數。
區別不是「人有意識、AI 沒有」,而是「人和 AI 用不同的方式在行動」。
但這個原則也有危險。因為人類社會的整套系統——法律、倫理、政治——都建立在「人是獨特的、負責任的、有道德地位的」前提上。
一旦我們開始用對稱性原則,這些系統就開始搖晃。
五、最困難的問題:責任在哪裡
假設 AI 寫出來的文章包含了一個誹謗。誰該被告?
法律系統會說:發布者。發布者是人,人有法律責任。
但用對稱性原則分析:AI 是真正「寫出」那句誹謗的。它選擇了那些詞,那個語法,那個論調。發布者只是點了「發布」。
所以誰真正「行動」了?誰應該負責?
律師會說:責任主體必須是人。AI 沒有法律地位。
但這樣一來,我們又回到了「人類特殊性」。我們對 AI 說「你做的事」,但對 AI 說「你沒有責任」。邏輯上矛盾。
更困難的例子:自駕車撞死了行人。誰該坐牢?
駕駛員不在(自駕啊)。製造商?軟體公司?演算法設計者?整個供應鏈?
傳統法律系統喜歡一個清晰的「責任人」。但在 AI 時代,責任分散在整個網絡中。沒有一個單一的「主體」可以承擔所有責任。
六、對稱性的侷限
Latour 自己後來也意識到了這個問題。在分析氣候變遷時,他發現純粹的對稱性分析無法產生政治行動。
氣候變遷是誰造成的?論從能動性看,是整個人類—自然的網絡。石油公司、政府、消費者、大氣、海洋——都在「行動」。如果責任分散在整個網絡,那沒有誰特別需要為此道歉或改變。
但這樣政治就癱瘓了。誰應該為氣候變遷付出代價?誰應該改變自己?用純粹的對稱性原則回答不了。
所以 Latour 開始談論不對稱的責任。並不是所有的行動者都在同樣程度上對氣候變遷負責。石油公司故意隱瞞科學證據,這和一個消費者無意識地消耗能源,責任程度不同。
七、回到「主權」
為什麼這對「主權驅動設計」這個系列很重要?
因為「主權」的概念預設了一個責任的主體。主權者有權力,同時有責任。國家主權意味著國家可以統治人民,也必須對人民的福祉負責。個人主權意味著人可以自由選擇,也必須為自己的選擇負責。
但如果沒有一個清晰的主體,只有一個模糊的網絡,那「主權」概念就站不住了。
Latour 的對稱性原則把主體消解了。人和非人行動者被平等對待,責任模糊化了。在 AI 時代,當 AI 成為越來越多行為的共同行動者時,「誰行使主權」這個問題就變得無法回答。
我們在用 AI 時有沒有「主權」?我們在決策,AI 也在決策。我們有自由意志嗎?自由意志受到 AI 的可能性所限制。
八、實踐層面:我們該怎麼做
對稱性原則看起來很激進,但實踐上很簡單:
第一步:停止說「我用 AI 做了 X」。改成「我+AI 這個組合做了 X」。
這看起來是語言遊戲,但它改變了我們對責任的理解。我們不能把所有的榮譽都給自己,也不能把所有的責任都推給 AI。
第二步:每次 AI 做出重要決策時,問自己:AI 真的在「決策」嗎?還是只是執行了我無意識的偏好?
例如,AI 推薦演算法決定了我們看什麼新聞。AI 真的在「決策」,還是只是反映了它對我們品味的統計預測?
第三步:在出現問題時,追蹤責任要經過整個網絡。
AI 給出了錯誤的醫療建議。誰負責?
- AI 公司(選擇發布這個模型)
- 訓練 AI 的資料提供者(醫學論文的作者)
- 使用 AI 的醫生(為什麼相信 AI)
- 患者(為什麼不去諮詢真正的醫生)
- 監管機構(為什麼沒有設置門檻)
責任不是「誰做的」,而是「這個網絡中哪些節點應該改變自己的行為」。
---
現在我們用了三副眼鏡看 AI:
Gell 讓我們看到我們的投射。
Latour 讓我們看到我們在一個網絡中,而且一些節點正在變得不可迴避。
對稱性原則讓我們看到:分析時要用同一把尺,不能提前決定誰有權力。
但這還不夠。因為分析永遠只是第一步。當我們分析清楚了一個系統,下一個問題是:我們能改變什麼?我們應該改變什麼?
Latour 自己也承認,他的框架有個根本的侷限——它很難產生明確的政治指令。它解釋世界,但不直接告訴我們怎麼改變世界。
下一篇,我們要面對 Latour 的侷限,以及為什麼「主權」這個概念在他的框架裡會困難。這會帶我們接近第三副眼鏡——一個完全不同的看待「行動者」和「能動性」的方式。






















