世界模型時代_第五章 存在的萎縮

更新 發佈閱讀 53 分鐘

第五章 主體性的危機與重建:不是比模型更會算,而是比模型更能承擔

第一節 「理解世界」的兩種方式:操作性理解與存在性理解

上一章的結尾把我們帶到了一個精確的位置:世界模型時代最需要被守護的,不是數據安全或演算法公平,而是人的主體性,人作為一個能夠獨立判斷、獨立選擇、並為選擇承擔後果的存在者的那個能力。

但「主體性」是一個太大的詞。如果我們直接開始討論「如何守護主體性」,就像一個醫生還沒有診斷清楚病因,就開始開藥方。在守護之前,我們需要先理解:主體性危機的根源究竟是什麼?它不只是「AI太強了」或「人太懶了」那麼簡單。它有一個更深層的結構性根源,而要看清這個根源,我們需要一個目前為止還沒有被正式引入的概念工具。

這個工具,就是「操作性理解」與「存在性理解」的區分。

兩個人站在同一座山頂上

讓我從一個場景開始。

兩個人站在同一座山的山頂上,俯瞰同一片風景。

第一個人是一位地質學家。她看到的是:花崗岩的露頭表明這座山是在某次造山運動中被擠壓隆起的;河谷的走向反映了斷層線的位置;植被的分布對應著不同海拔的微氣候帶。她可以精確地描述這片風景的成因、結構和演化歷史。她的理解是精確的、可驗證的、可以被寫成論文發表的。

第二個人是一位剛剛完成了人生中最艱難的一次手術、被醫生告知復原良好之後、獨自來到這座山上的癌症倖存者。他看到的不是花崗岩的露頭和斷層線的走向。他看到的是,或者更準確地說,他被捲入的是一種無法被任何地質學術語所捕捉的體驗:光線打在山谷裡的方式突然變得無法承受地美麗。空氣進入肺部的感覺不再是一個自動的生理過程,而是一個他在此刻切身體會到的、幾乎讓他流淚的事實:他還活著。這片風景不是一組地質數據。它是一個禮物。一個他差點永遠失去的禮物。

這兩個人都「理解」了眼前的風景。但他們的「理解」是同一種東西嗎?

地質學家的理解,讓她能夠預測這座山在未來一百萬年裡會如何變化、評估哪些區域有山崩的風險、規劃最安全的登山路線。她的理解是操作性的,它產出了可以用來預測、規劃和控制的知識。

癌症倖存者的理解,不產出任何可以被操作的知識。它不能用來預測任何事情,不能用來規劃任何行動,不能被寫成論文或申請專利。但它改變了他與世界之間的關係。在那個瞬間,他不是在「觀察」世界,他是在以一種全新的方式棲居在世界之中。他的理解是存在性的,它不改變世界的狀態,但它改變了他在世界中的位置。

操作性理解:世界模型的語言

世界模型所追求的理解,毫無疑問的是屬於第一種。

讓我們回顧一下世界模型的基本架構:感知環境的狀態→在內部建構表徵→基於表徵預測未來→根據預測規劃行動。這個架構的每一個環節,都指向同一個目標:讓系統能夠有效地在環境中行動。理解的價值,在這個架構中,完全由它的操作效果來衡量,一個表徵「好不好」,取決於它能不能支撐準確的預測和有效的規劃。

這不是世界模型的缺陷。這是它的設計。世界模型就是一個操作性理解的生成器。它的存在理由,就是產出可以被用來預測和控制的知識。

而且,操作性理解不是一種低級的理解。人類文明最偉大的成就,科學、技術、醫學、工程,幾乎全部建立在操作性理解的基礎上。我們能夠治療疾病,是因為我們操作性地理解了病原體和免疫系統的運作。我們能夠將太空船送上月球,是因為我們操作性地理解了軌道力學。操作性理解是強大的、寶貴的、不可或缺的。

問題不在操作性理解本身。問題在於:當操作性理解成為唯一被承認的「理解」形式時,會發生什麼。

存在性理解:語言之外的知道

存在性理解不容易被定義。它不容易被定義這件事本身,就已經在告訴我們一些關於它的重要訊息:它不屬於可以被精確定義的範疇。

但我們可以從幾個方向去接近它。

存在性理解的第一個特徵是:它不是從外部觀察世界,而是從內部棲居在世界之中。地質學家站在山頂上,她的理解來自於她與山之間的一種特定關係,一種「觀察者—被觀察對象」的關係。她在山的外部,用一套概念工具來分析山。癌症倖存者站在同一個位置上,但他與山之間的關係不是「觀察者—被觀察對象」,而是一種他自己也無法完全表述的捲入。他不是在觀察風景。他是風景的一部分。風景正在發生在他身上。

存在性理解的第二個特徵是:它涉及賦義(meaning-making)。操作性理解追問的是「這是什麼」和「它如何運作」。存在性理解追問的是「這對我意味著什麼」。同一場雨,對於一個氣象學家來說是一組可以被預測的大氣參數,對於一個正在等待器官移植的父親來說是他陪女兒走的最後一段路上的天氣,對於一個農民來說是旱季結束的信號。這些「意義」不是從雨的物理性質中推導出來的。它們來自於人與世界之間的特定關係,一種由個人的歷史、處境、關切和脆弱性所構成的關係。

存在性理解的第三個特徵是:它要求承擔。操作性理解可以是超然的,你可以站在安全的距離之外分析一場戰爭的戰略結構,而不需要為任何一個士兵的死亡負責。但存在性理解不允許這種超然。當你存在性地理解了另一個人的痛苦,不是把它當作一個可以被分類的行為模式,而是作為一個同樣脆弱的存在者對另一個存在者的脆弱性的回應,這時,你就不可能保持超然了,你被捲入了,你被要求回應。而回應就意味著承擔。

這三個特徵合在一起,描繪出了一種與操作性理解根本不同的認知方式。操作性理解是外在的、客觀的、可以被形式化的。存在性理解是內在的、主體性的、抗拒形式化的。操作性理解追問「世界如何運作」。存在性理解追問「我在這個世界中是誰」。

為什麼這個區分對主體性問題至關重要

現在,讓我們把這個區分帶回世界模型的語境中。

世界模型的全部設計目標,是生產操作性理解。這在技術上是完全合理的,操作性理解是它能夠生產的東西,也是市場所需要的東西。問題不在於世界模型生產操作性理解。問題在於一個更隱晦的後果:

當操作性理解變得越來越強大、越來越便利、越來越無處不在時,存在性理解就會在人們的生活中被逐漸邊緣化,不是被否定,不是被禁止,而是被視為多餘。

因為在一個所有問題都可以被AI更快、更準、更好地回答的環境中,「自己去理解」這件事開始顯得低效。在一個AI可以為你預測所有可能的後果並推薦最佳行動的環境中,「自己去面對不確定性」開始顯得不必要。在一個AI可以為你生成任何你想要的體驗的環境中,「自己去承受世界原本的粗糙和不可預測」開始顯得像是一種可以被避免的不適。

一點一點地,存在性理解,那種從內部棲居世界、賦予世界意義、並為自己在世界中的位置承擔責任的理解方式,就從人們的日常生活中被擠了出去。不是被取消了。只是不再被需要了。

而當存在性理解不再被需要時,依賴存在性理解的那些人類能力,在未知中做出判斷、在模糊中賦予意義、在脆弱中承擔責任就開始萎縮。

這就是主體性危機的根源結構。

它不是「AI太聰明了,人類被比下去了」。那是一種膚淺的、戲劇性的危機敘事。真正的危機遠比這個更安靜:不是人類在與AI的競爭中落敗,而是人類在不知不覺中放棄了那些不屬於競爭範疇的能力,因為在一個被操作性理解所主導的世界裡,那些能力看起來沒有「用處」。

但它們不是「沒有用處」的。它們是構成人之為人的核心。

一個能夠在不確定中做出判斷的人,不是因為他的判斷比AI更準確,在大多數情況下他的判斷不如AI準確。他之所以需要這個能力,是因為「做出判斷」這個行為本身,是他作為一個主體存在於世界中的方式。一個把所有判斷都外包給AI的人,即使獲得了更好的結果,也失去了某種更根本的東西:他不再是自己生命的作者。他成了一個精確的執行者,執行的是AI替他做出的最佳選擇。

一個古老的警告,一種新的迴響

寫到這裡,我想起了丹麥哲學家索倫·齊克果(Søren Kierkegaard)在十九世紀中葉寫下的一段話。齊克果是存在主義哲學的先驅,他畢生所關切的核心問題就是:一個人如何在一個充滿了系統、制度和抽象思想的世界中,保持住自己作為一個具體的、不可替代的個體的存在。

他寫道:最大的危險,是一個人在不知不覺中失去了自己,不是以戲劇性的方式失去,而是以一種安靜的、漸進的方式,好像什麼都沒有發生一樣。

在齊克果的時代,他所警惕的是黑格爾式的哲學體系,一種試圖將所有個體性都納入一個宏大的理性系統中的思想傾向。在我們的時代,這個警告有了一種新的、也許更加具體的迴響:世界模型所代表的,正是一種新的「系統」,一種試圖將所有關於世界的理解都納入一個可預測、可規劃、可優化的框架中的技術系統。

而人在這個系統中最容易失去的,不是他的工作,不是他的效率,不是他的競爭力。而是齊克果所說的那個東西,他作為一個具體的、不可替代的、必須由自己來承擔自己的存在的個體的那個資格。

這就是操作性理解與存在性理解的區分之所以重要的原因。它不是一個學術上的概念遊戲。它是一面透鏡,讓我們看清楚主體性危機的精確位置:危機不在於人類在操作性理解的領域被AI超越,在那個領域,被超越只是時間問題,而且被超越未必是壞事。危機在於,操作性理解的全面勝利,正在讓存在性理解顯得多餘,而存在性理解恰恰是主體性的根基。

人的位置不是「比模型更會算」。人的位置是「比模型更能承擔」,承擔意義、承擔不確定、承擔選擇的後果、承擔作為一個有限而脆弱的存在者棲居在世界中的那份重量。

這個命題還需要進一步展開論述和落地。在接下來的幾節中,我們將追問:這種承擔在日常生活中具體是什麼樣子?主體性危機在實際的生活經驗中以什麼形態顯現?而在看清這些形態之後,我們又能做什麼?

第二節 判斷被代辦:主體性危機的核心形態

上一節建立了一個概念框架:操作性理解與存在性理解的區分。這個框架讓我們看清了主體性危機的根源結構,不是人在操作性理解的領域被AI超越,而是操作性理解的全面勝利正在讓存在性理解顯得多餘。

但一個框架如果只停留在概念的層次上,就仍然只是一副眼鏡,還不是一次診斷。我們需要把這副眼鏡戴上,去看清楚主體性危機在日常生活中的具體面貌。而要做到這一點,我們需要先把「主體性危機」這個大詞拆開來,找到它最核心的那個形態。

不是「被取代」,而是「被代辦」

在公共討論中,關於AI對人類的威脅,最常見的敘事是「取代」:AI會取代人類的工作、取代人類的創造力、最終取代人類的地位。這個敘事的基本結構是一場競爭,人類和AI在同一個舞台上比拼,而人類在越來越多的領域中落敗。

但如果我們認真對待上一節的分析,就會發現這個「取代」敘事雖然引人注目,卻不是問題的核心。

因為在很多領域中,被AI「取代」未必是壞事。如果AI能比人類更準確地診斷疾病、更安全地駕駛汽車、更高效地處理法律文件,那麼人類在這些特定任務上「被取代」,可能是一件值得歡迎的事情,就像洗衣機「取代」了手洗衣物一樣。沒有人為失去手洗衣物的能力而哀悼。

真正的問題不在「取代」,而在一個更安靜、更不引人注意的過程:代辦

「取代」的意思是:AI做了你原本做的事,你不再需要做了。這裡有一個清晰的事件,某個任務從你手中被移走了。你知道它被移走了。你可以決定你對此的感受。

「代辦」的意思是不同的。它的意思是:AI在你意識到需要做出判斷之前,就已經替你做出了判斷。不是把一個任務從你手中拿走,而是讓你從來不知道那裡曾經有一個需要你判斷的時刻。

讓我用一個具體的場景來說明這個差異。

假設你是一位主管,需要決定是否錄用一位求職者。在「取代」的場景中,AI做了初步的篩選,然後告訴你:「根據分析,這位求職者的匹配度是78%。建議錄用。」你看到了這個建議,然後你決定是否採納。AI取代了你的部分分析工作,但最終的判斷仍然是你做出的。你知道有一個判斷需要被做出,你知道AI給了你一個建議,你可以接受也可以拒絕。

在「代辦」的場景中,事情的發生方式不同。AI在數百位求職者中進行了篩選,只把「最合適」的五位呈現在你的面前。那些被篩掉的求職者,也許其中有一位有著非常規的背景、不符合模型的匹配標準、但可能為你的團隊帶來意想不到的視角和能力,你永遠不會知道他們的存在。AI沒有「取代」你的判斷。你仍然在五位候選人中做出了選擇。你仍然覺得自己是決策者。但你的判斷所能觸及的範圍,已經被AI預先裁切過了。你在一個被縮小了的可能性空間中做出了選擇,卻以為自己面對的是全部的可能性。

這就是「代辦」的核心機制:它不取消你的判斷,它縮減你的判斷所能觸及的空間。而且,它在你不知情的情況下完成這個縮減。

代辦的三個層次

如果我們仔細觀察,會發現「代辦」不是一個單一的動作,而是一個有層次結構的過程。

第一個層次是資訊的代辦。AI替你決定了什麼資訊值得被你看到、什麼不值得。這是我們已經在社群媒體時代經歷過的,演算法的資訊篩選。但在世界模型時代,這種篩選將從「你在螢幕上看到什麼」擴展到「你在物理和數位環境中接觸到什麼」。你的個人助理替你篩選了新聞、郵件、訊息、會議邀請。你的智慧家居系統替你篩選了環境資訊,溫度、光線、聲音都被調整到「最適合你」的狀態,而那些被調整掉的東西你並不知道。

第二個層次是判斷的代辦。AI不只替你篩選了資訊,還替你完成了對資訊的判斷。你的健康助理不只告訴你今天的健康數據,還告訴你「你今天應該少吃鹽」。你的財務助理不只呈現你的收支狀況,還告訴你「你應該把這筆錢投入這個基金」。你的工作助理不只整理了你的待辦事項,還告訴你「你應該先處理A專案而不是B專案,因為A的截止日期更近」。在每一個案例中,你都可以選擇不接受建議。但在大多數情況下,你會接受。因為AI的判斷比你的判斷更有依據、更有效率、而且省去了你自己蒐集和分析資訊的大量時間。

而你每一次接受AI的判斷而不是自己做出判斷,都是一次判斷力的不運動。日積月累,就是萎縮。

第三個層次是框架的代辦,這是最深的一層,也是最不可見的一層。AI不只替你篩選了資訊、替你做出了判斷,它還替你設定了「用什麼框架來理解問題」。

什麼意思?讓我舉一個例子。

當你問AI「我應該怎麼處理和同事的衝突」時,AI的回答幾乎一定是操作性的:分析衝突的原因、評估不同解決策略的效果、推薦一套具體的溝通步驟。這個回答是有用的。但它隱含地假設了一件事:「與同事的衝突」是一個需要被「解決」的「問題」。

但也許它不是。也許這場衝突正在告訴你一些關於你自己的事情,你為什麼對這件事感到如此憤怒?也許你的憤怒不是因為同事的行為,而是因為這個情境觸發了你童年時某段被忽略的經歷。也許你不需要「解決」這個衝突,而是需要好好地待在這個不舒服裡面一段時間,讓它告訴你一些你還不知道的關於自己的事情。

這種理解,衝突不只是需要被解決的問題,而是可以被棲居的意義場域,是存在性理解。而AI不會給你這種理解。不是因為它故意不給,而是因為它的架構決定了它只能產出操作性理解。它的每一個回應都預設了一個框架:世界是由需要被解決的問題構成的,而解決問題的方式是分析、規劃、優化。

當你長期使用AI來面對生活中的困惑時,你接受的不只是它的具體建議,你還在不知不覺中接受了它的框架,一種把所有經驗都當作待解決問題的框架。而在這個框架之外的東西,無法被解決只能被承受的悲傷、無法被優化只能被接納的有限性、無法被分析只能被活過的矛盾,就逐漸從你的認知地圖上淡去了。

不是被刪除了。只是因為從不被框架所召喚,而漸漸被遺忘了。

代辦的靜默性

我在上面描述的三個層次:資訊代辦、判斷代辦、框架代辦,有一個共同的特徵:靜默

它們都不以強制的方式發生。你不會在某一天突然收到一封通知說:「從今天起,你的判斷將由AI代辦。」相反,它是以無數個微小的、合理的、你自願接受的便利性提升的方式,逐漸累積的。

每一步都很小。每一步都有道理。每一步你都可以拒絕,只是你沒有理由拒絕,因為AI的建議確實比你自己的判斷更好、更快、更有依據。而這正是它的危險之處。

如果有一天AI突然宣佈「從現在起由我替你做所有決定」,你會拒絕。這是一個明確的侵犯,你有一個清楚的對手可以對抗。但AI做的不是這個。它做的是:在你面前鋪了一條由無數個微小便利構成的下坡路,每一步都是向下的,但坡度如此平緩,以至於你根本感覺不到自己在下降。等你走到坡底的時候,等你發現自己在面對一個真正需要獨立判斷的情境時感到深深的無力,你再回頭看,看不見任何一個「這就是我失去判斷力的那個時刻」。因為不存在那樣的時刻。只有十年的、十萬個微小的不練習。

這種靜默性使得判斷代辦成為所有AI風險中最難以防範的一種。你可以為假資訊設計查核機制。你可以為演算法偏見設計審計程序。你可以為數據隱私設計法律保障。但你要怎麼為「人在不知不覺中停止了自己判斷」這件事設計防範機制?

這不是一個制度設計可以解決的問題。它是一個存在論層次的問題。

回到那個根本的問題

讓我們在這裡暫停一下,回到一個更根本的問題上。

為什麼判斷力如此重要?一個人為什麼不能把判斷交給一個在大多數情況下比自己更準確的系統,然後把省下來的認知資源用在「更有意義的事情」上?

這個問題的答案,就在上一節所建立的框架中。

判斷的重要性不在於判斷的結果。如果我們只看結果,那麼在大多數情況下,AI的判斷確實比人類的判斷更好,更全面、更一致、更不受情緒干擾。把判斷外包給AI,在結果的層面上是理性的選擇。

但判斷的重要性不只在結果。它還在於判斷這個行為本身,在不確定中衡量、在模糊中辨析、在矛盾中取捨、然後為自己的取捨承擔後果。這個過程不是達成結果的手段。它本身就是一個人作為主體存在於世界中的方式。

一個從不自己判斷的人,即使獲得了完美的結果,也不是在完整的意義上「活著」。他是在被活著。他的生命的每一個決定都是最優的,但沒有一個決定是他的。他像一個乘客坐在一輛自動駕駛的汽車裡,路線是最佳的,速度是最安全的,到達時間是最準時的。但他不是司機。他甚至不知道他不是司機,因為車一直開得那麼好,以至於「自己開車」這個選項從來沒有出現在他的意識中。

這就是主體性危機最核心的形態。不是被取代,而是被代辦。不是失去了做事的機會,而是失去了判斷的時刻。不是被壓迫,而是被照顧,照顧得如此周到,以至於你不再需要為自己的生命做出任何真正的決定。

而「不再需要」與「不再能夠」之間的距離,比我們願意承認的要短得多。

這個危機在日常生活中的具體顯現是什麼樣子的?它如何滲透進我們的認知、情感、時間感、以及我們與他人的關係之中?

這是下一節要展開的。

第三節 被平整的可能性空間,不確定性的消失

上一節描述了主體性危機的核心形態:判斷被代辦。但那個描述主要聚焦在「判斷」這個認知動作上。如果我們把目光從動作本身移開,轉向判斷發生的條件,會看到一個更深層的問題。

判斷之所以有意義,是因為你面前有不確定性。如果一切都已確定,結果已知、路徑已明、風險已排,那就不存在需要判斷的時刻。你只需要執行。

而世界模型的終極能力,恰恰是消除不確定性

不確定性被消除的具體面貌

讓我們從一個不起眼的日常場景開始,看看不確定性的消除在實踐中長什麼樣子。

你打算週末去一座你從未去過的城市旅行。

在沒有AI的年代,其實不需要回溯太遠,也許只是十五年前,準備這趟旅行的過程本身就充滿了不確定性。你會翻一本旅遊書,但書上的資訊可能是兩年前的了,某些餐廳也許已經歇業。你會問去過的朋友,但朋友的品味和你不同,他推薦的地方你不一定喜歡。你會到了之後在街上漫步,被一條小巷的光影吸引而走進去,發現一家沒有出現在任何旅遊指南上的小店。你會在那家店裡和老闆聊天,老闆告訴你附近有一座當地人才知道的小廟,下午的光線特別好。你走到小廟,發現它確實很美,但更讓你記住那個下午的,是廟前的石階上坐著一位老人在拉二胡,旋律你不認識,但它和那個下午的光線一起,構成了一個你在出發前完全無法預見的經驗。

現在,同一趟旅行,在一個搭載了世界模型的AI助理的協助下。

AI根據你過去的旅行偏好、飲食習慣、社群媒體上的互動紀錄、步行速度和體能數據,為你生成了一份精確的行程。每一個時段都有安排。每一家餐廳都經過評價篩選和口味匹配。路線經過優化,避開了觀光客密集的區域,但包含了「足夠的地方特色體驗」,因為AI從你過去的照片中分析出你偏好「有當地感的場所」。甚至連「偶然發現」都被安排了,AI在路線中刻意插入了一兩個「驚喜」,根據你的興趣模型預測你可能會喜歡的非主流景點。

這趟旅行會是愉快的。甚至可能比你自己規劃的更愉快,更少走冤枉路,更少踩到雷,更多「恰好適合你」的體驗。

但有一樣東西消失了。

那個你完全沒有預見到的、在小廟前聽老人拉二胡的下午,不會出現在AI的行程裡。不是因為AI故意排除它,而是因為那個下午之所以成為那個下午,恰恰是因為它不在任何計畫之中。它是一個純粹的偶然,你走進了一條沒有理由走進的小巷、在沒有理由停下來的地方停了下來、聽到了一段你沒有預期會聽到的音樂。這個偶然不能被「安排」,因為一個被安排的偶然就不再是偶然。它之所以有意義,恰恰是因為它完全在你的預期之外。

而AI的路線優化邏輯,本質上就是一部消除偶然性的機器。它的目標是最大化「你可能喜歡的體驗」的機率,最小化「你可能不喜歡的體驗」的機率。在這個目標函數下,真正的偶然,那些你事先不知道自己會不會喜歡的、沒有歷史數據可以預測的、完全落在你的偏好模型之外的事物,就被系統性地從你的生活中清除了。

不是所有的偶然都是美好的。走進那條小巷,你也可能遇到的是一條死路、一股臭味、或者一個令你不安的場景。AI要消除的,正是這種不確定性。但問題是:你不能只消除不好的偶然而保留好的偶然。因為偶然之所以是偶然,就在於你事先不知道它是好的還是壞的。一旦你建立了一個篩選機制來區分「好的偶然」和「壞的偶然」,你就已經消除了偶然性本身,因為通過篩選的東西已經不再是偶然的了,它是被允許的。

被平整的可能性空間

讓我們把這個旅行的例子推廣到更大的尺度上。

一個人的人生,如果我們從遠處看,就是一系列的選擇和遭遇在時間中展開的過程。在任何一個時刻,你的面前都有一個「可能性空間」,所有你可能走向的方向、可能做出的選擇、可能遭遇的事件。在沒有AI的世界裡,這個可能性空間是崎嶇的,充滿了你不知道的路徑、你沒有考慮過的選項、你無法預見的遭遇。這種崎嶇讓人生變得困難,但是它也讓人生變得有深度。

世界模型所做的事情,是對這個可能性空間進行平整。

它把那些被它判斷為「風險過高」的路徑標記為不可見。它把那些被它判斷為「不符合你的偏好」的選項從推薦列表中移除。它把那些「無法預測結果」的區域,也就是真正未知的區域,用「安全的替代方案」填平。結果,你面前的可能性空間變得更平坦了、更光滑了、更容易行走了。每一條路都有清楚的路標,每一個選項都附帶了預期的結果,每一次選擇都有AI的建議在旁邊幫你權衡。

在這個被平整過的可能性空間中,你不太可能犯下嚴重的錯誤。你也不太可能做出真正出乎意料的選擇。你的人生會更順暢、更高效、更少遺憾。

但它也會更淺。

因為人生的深度不來自順暢。它來自你在那些沒有路標的地方所做出的選擇。它來自你在不確定中下了一個賭注、然後經歷了賭注的後果,無論那個後果是好的還是壞的。它來自你在一條看不見盡頭的路上走了很久、一度以為自己走錯了、然後在某個轉彎處看到了一個你從未想像過的風景。

這些經驗的共同特徵是:它們發生在可能性空間的崎嶇處,而不是平坦處。如果那些崎嶇被平整了,這些經驗就不會發生。不是因為你「不被允許」去經歷它們,而是因為你的環境已經被設計得不再包含產生它們的條件。

不確定性不是敵人

在AI的設計邏輯中,以及在更廣泛的現代技術文明的邏輯中,不確定性被預設為一個需要被消除的問題。這個預設是如此根深蒂固,以至於我們很少追問它。

但讓我們追問一次。

不確定性真的只是一個問題嗎?

在認知科學中,不確定性是學習的前提條件。一個生物體之所以學習,是因為它的預測與現實之間存在落差,預測誤差(prediction error)。如果環境完全可預測,就不存在預測誤差,也就不存在學習的驅動力。Karl Friston的自由能原則正是建立在這個洞見之上的:生物體的認知系統本質上是一部持續的預測機器,而驅動這部機器運轉的燃料,就是不確定性。消除了不確定性,就等於關閉了學習的引擎。

在發展心理學中,不確定性是認知發展的核心條件。皮亞傑所描述的認知發展過程:同化(assimilation)與調適(accommodation),本質上就是兒童在面對「不符合預期」的經驗時,被迫調整自己的認知架構。如果一個孩子的環境被設計得永遠「符合預期」,每一個學習材料都是為他量身定制的、每一個困難都是「恰到好處」的、每一次挫折都被及時地緩衝,那麼他的認知框架就失去了被真正挑戰的機會。他會學到很多東西,但他不會經歷那種「整個理解框架被動搖」的深層學習。

在倫理學中,不確定性是道德能力的前提條件。一個道德判斷之所以是道德判斷,而不只是一次最佳化計算,正是因為它發生在不確定性之中。你不確定對方的意圖,不確定自己的判斷是否公正,不確定行動的後果,然後你仍然選擇了,並且為那個選擇負責。如果一個AI已經替你消除了所有的不確定性,告訴你對方的意圖大概率是什麼、你的判斷在統計上是否偏頗、行動的可能後果是什麼,那麼你在AI的建議下做出的選擇,在什麼意義上仍然是一個「道德」的選擇?它更像是一次有充分資訊支持的理性計算,這當然是好的,但它還是道德嗎?道德的本質,似乎恰恰在於你在信息不充分的情況下仍然願意承擔責任。

而在存在論的層次上,也就是我們在本章一直在追問的層次上,不確定性是人之為人的基本處境。海德格(Martin Heidegger),二十世紀最有影響力也最具爭議的哲學家之一,在他的代表作《存有與時間》中,用一個簡潔的德語詞來描述人的存在方式:被拋擲性(Geworfenheit)。人不是「選擇」來到這個世界上的。人是被「拋擲」進一個他沒有選擇的處境中的,一個特定的身體、一個特定的時代、一個特定的家庭、一套他沒有發明的語言和文化。而人之為人,就在於他在這個他沒有選擇的處境中,仍然做出了選擇。

被拋擲性就是最根本的不確定性。你沒有選擇你的起點,你不完全知道你的終點,你在這兩者之間的每一步都是在不完全的資訊下做出的。這不是一個可以被「修復」的缺陷。這就是人的處境

而一個試圖消除這種不確定性的技術,一個替你預測未來、替你評估風險、替你平整可能性空間的世界模型,即使它的出發點是善意的,其最終效果也是在試圖讓人不再是海德格所描述的那種存在者:一個必須在被拋擲的處境中自己找路的存在者。

一個需要說出來的弔詭

寫到這裡,我意識到本節的論證似乎在走向一個危險的方向:好像我在主張不確定性是好的、確定性是壞的,因此我們應該拒絕所有消除不確定性的技術。

不,這不是我的主張。

消除不確定性在很多情境下是無條件的好。消除疾病的不確定性、消除饑荒的不確定性、消除自然災害的不確定性、消除暴力和壓迫的不確定性,這些是文明最核心的任務,而世界模型技術可以在這些任務上做出巨大的貢獻。

但我的主張必須更加精確的描述:不是所有的不確定性都應該被消除。有一些不確定性:與選擇有關的不確定性、與意義有關的不確定性、與自我認識有關的不確定性、與道德判斷有關的不確定性,不只是可以被容忍的,而是應該被守護的。因為它們是人之為人的構成性條件。消除它們不是在幫助人,而是在消減、消除、消滅人。

文明的任務,不是消除所有的不確定性,而是區分兩種不確定性:那些造成苦難的不確定性(應該被消除),以及那些構成人之為人的不確定性(應該被守護)。前者是技術的正當領地。後者是技術應該止步的邊界。

而世界模型時代最核心的文明挑戰,也許就是應該學會畫出這條邊界。

目前,這條邊界在公共知識空間中的討論中幾乎不存在。技術的邏輯只有一個方向:消除更多的不確定性、提供更多的確定性、讓生活更加可預測。這個方向在大多數時候是有益的。但如果它被無差別地推進,不分場域地消除所有的不確定性,包括那些構成學習、創造、道德和自我認識之前提的不確定性,那麼它的終點就不是一個更好的人類生活,而是一個更平坦的、更順滑的、但也更淺的人類生活。

一個人可以在一個被完全平整的可能性空間中活得很舒適。但他很難在那裡活出深度。而一個沒有深度的生命,即使擁有完美的效率和絕對的安全,是否仍然是一個值得被活的生命?

這個問題不能由AI來回答。它只能由每一個仍然在乎自己生命的人,自己來回答。

第四節 人的位置:不是比模型更會算,而是比模型更能承擔

前面三節所做的事情,是從不同的角度逼近主體性危機的輪廓。第一節建立了概念框架,操作性理解與存在性理解的區分。第二節描述了危機的核心形態,判斷被代辦。第三節揭示了危機的深層條件,不確定性的消失。

但到目前為止,我們一直在描述危機。我們還沒有追問:在這個危機面前,人的位置在哪裡?

這個問題之所以難以回答,是因為幾乎所有我們習慣用來確立「人的位置」的方式,都是競爭性的,人比機器更聰明、更有創造力、更善於理解情感。但這些比較的前提是:人和機器在同一個維度上比拼。而世界模型的進展正在讓人類在越來越多的維度上失去這種比較優勢。

如果我們繼續用「人比AI更擅長什麼」來定位人的價值,我們就會陷入一場注定後退的防禦戰,每當AI攻克了一個原本被認為「只有人類能做」的領域,我們就要再退一步,再尋找一個新的「人類獨有的能力」來作為防線。這場防禦戰的終點是明確的:沒有防線

所以,我們需要一種完全不同的定位方式。

「更會算」的陷阱

讓我們先看清楚那種競爭性定位為什麼是一個陷阱。

當人們說「AI不可能取代人類,因為人類有創造力」的時候,他們預設的是:創造力是一種可以被比較的能力,人類有,AI沒有。但這個預設正在被技術的發展所侵蝕。AI已經可以作曲、繪畫、寫詩、設計建築方案、甚至在某些領域提出被專業期刊接受的科學假說。你可以爭辯說AI的創造力「不是真正的創造力」,它只是在重組已有的素材,但人類的創造力在多大程度上不是在重組已有的素材?這場關於「什麼算真正的創造力」的辯論,最終會退化為一場語義之爭,而語義之爭不能為人的位置提供堅實的基礎。

當人們說「AI不理解情感」的時候,他們同樣預設了一種比較性的框架。但大型語言模型已經能夠在很多情境中生成「恰當的」情感回應,安慰悲傷的人、鼓勵沮喪的人、在社交場合中做出得體的反應。你可以說它「不是真的在感受」,但從接收者的角度來看,一個「看起來理解你的感受」的AI和一個「真正理解你的感受」的人之間的差異,在日常互動中越來越難以辨別。

每一次我們用「人類比AI更擅長X」來定位人的價值,我們就把人的價值綁定在了一個隨時可能被技術進步所取消的比較優勢上。這就像一家公司把全部的商業價值都建立在「我們的產品比競爭對手便宜」上,一旦競爭對手降價了,你就失去了存在的理由。

人的位置不能建立在比較優勢上。它必須建立在一個AI在原則上無法觸及的維度上。

承擔:一個AI無法觸及的維度

那麼,什麼是AI在原則上無法觸及的?

不是計算能力,AI已經遠超人類。不是知識的廣度,AI可以存取的知識量是任何個人的數百萬倍。不是模式辨識,AI在影像、語言、數據中辨識模式的能力已經超越了大多數人類專家。不是決策的一致性,AI不會因為疲勞、情緒、偏見而做出不一致的判斷。

AI無法觸及的,是承擔。

讓我把這個詞說得更精確一些。

「承擔」不是一種能力。它不是「會做某件事」的意思。它是一種存在方式,一種「把某件事的後果接到自己身上」的方式。

一個AI可以預測一個醫療決策的所有可能後果:手術的成功率、併發症的機率、不同治療方案的長期預後。它可以根據這些預測推薦一個「最佳」的方案。但它不能為這個推薦承擔後果。如果手術失敗了,AI不會失眠。它不會在凌晨三點醒來,反覆地想「如果當時選了另一個方案會不會不同」。它不會在之後的每一次類似決策中帶著那次失敗的記憶和重量。它不會因為那個決定而改變自己,變得更謹慎、或更勇敢、或更深地理解了「沒有完美選擇」這件事意味著什麼。

而做出那個決定的醫生會。

這就是承擔的意思。它不是一種計算能力。它是一種存在結構,一種「決定的後果會回到決定者身上並改變他」的結構。AI的決策不會回到AI身上。它沒有一個「自身」可以被回到。它不會被自己的決定所改變、所塑造、所傷害、所教導。它的每一次「決策」在結構上都是全新的,不帶任何前一次決策的存在論重量

而人不同。人的每一個決定,都沉澱在他的存在之中。那次你在關鍵時刻選擇了誠實而不是自保,改變了你對自己的理解。那次你在壓力下做出了一個你後來後悔了十年的選擇,讓你在之後的每一個類似情境中都帶著那份後悔的重量去判斷。那次你選擇陪伴一個正在受苦的人,而不是走開,讓你在那之後成了一個和之前不一樣的人,不是更好或更壞,只是不一樣,帶著那個下午的重量。

這些經驗不是「數據」。它們不能被存入記憶體然後在下一次決策時被檢索。它們改變的不是你的知識,而是你的存在,你是誰、你如何看待世界、你在面對下一個選擇時帶著什麼樣的重力場。

AI沒有這種重力場。它的每一次運算都是無重量的。

一個被忽略的哲學傳統

我在這裡所描述的「承擔」,不是我自己發明的概念。它有一個深厚的哲學譜系。

法國哲學家伊曼紐爾·列維納斯(Emmanuel Levinas),一位立陶宛裔法國猶太思想家,在二十世紀下半葉對倫理學進行了也許是最根本的重新奠基,畢生追問的核心問題就是:人與人之間的關係,最根本的結構是什麼?他的回答不是「溝通」,不是「合作」,不是「互利」。他的回答是:責任

列維納斯所說的「責任」,不是法律意義上的責任,不是「你簽了合約所以你有義務」。它是一種比任何合約都更原初的東西:當你面對另一個人的面容——那張暴露了他的脆弱性的面容,你就已經被召喚了,你被要求回應。你可以選擇不回應,但你不能假裝那個召喚不存在,因為你已經被捲入了。

這種「被另一個人的脆弱性所召喚、被要求回應、無法假裝不知道」的結構,就是列維納斯所說的倫理的原初結構。而這個結構,在根本上依賴於一個前提:回應者自己也是一個有限的、脆弱的、可以被影響和改變的存在者。

一個AI可以辨識人臉上的悲傷表情,可以生成一段「恰當的」安慰語言,可以在行為層面上「回應」另一個人的脆弱。但它不會被那個脆弱所觸動。它不會因為看見了那張面容而在之後的存在中帶著那張面容的重量。它的「回應」是功能性的,它產出了正確的輸出。但它不是倫理性的,因為它不是一個脆弱的存在者對另一個脆弱的存在者的回應。

這就是人的位置。

不是「比AI更擅長辨識情感」,AI也許很快就會比人類更擅長,而是「能夠被另一個人的脆弱所改變」,這是一種AI在結構上不具備的存在能力。

賦義:另一個AI無法觸及的維度

除了承擔之外,還有一個維度是AI在原則上無法觸及的。那就是賦義,賦予經驗以意義的能力。

讓我解釋我的意思。

一個AI可以分析一段經歷的所有客觀面向,它發生在什麼時候、什麼地點、涉及哪些人、產生了什麼可測量的結果。但它不能回答一個只有經歷者本人才能回答的問題:「這對我意味著什麼?

同樣是失去一份工作,對於一個把全部自我認同都建立在那份工作上的人來說,失業意味著自我的崩塌。對於一個早已對那份工作感到窒息但一直沒有勇氣辭職的人來說,被裁員意味著一種痛苦的解放。對於一個剛剛成為父親、正在重新思考什麼是「重要的事」的人來說,失業意味著一個被迫停下來重新審視人生的機會。

同一個「事件」,三種截然不同的「意義」。而這些意義不是從事件的客觀屬性中推導出來的。它們來自於經歷者與事件之間的特定關係,一種由個人的歷史、價值觀、恐懼、渴望、脆弱性所構成的關係。

一個AI可以列出失業可能帶來的所有後果,收入減少、社交網絡改變、心理壓力增加、新的職業機會。但它不能替你決定這件事「對你意味著什麼」。因為意義不是從外部觀察得出的結論。意義是從內部生成的,從你作為一個特定的、有歷史的、有關切的存在者與世界的交會中生成的。

這就是為什麼一個AI可以為你提供關於任何情境的完美分析,卻無法替你「活過」那個情境。分析是操作性的。活過是存在性的。分析可以被外包。活過不能。

重新定位人的價值

讓我們把這些線索聚合成為一個命題。

人的價值不在於人比AI「更會算」。在操作性理解的維度上,計算、預測、優化、模式辨識,AI已經超越了人類,而且差距只會越來越大。如果我們還在這個維度上尋找人的位置,我們會發現那裡已經沒有位置了。

人的價值在於人能夠做兩件AI在結構上無法做到的事。

第一件是承擔:把決定的後果接到自己身上,被那些後果所改變、所教導、所傷害、所充實。一個AI可以做出比任何人類更好的決定,但它不能承擔那個決定。承擔需要一個可以被改變的「自身」。AI沒有這個「自身」。

第二件是賦義:從自己的存在位置出發,賦予經驗以不可替代的個人意義。一個AI可以分析一段經歷的所有客觀面向,但它不能回答「這對我意味著什麼」,因為它沒有一個「我」。

承擔和賦義,這兩件事的共同特徵是:它們不是能力,而是存在結構。它們不是人類碰巧「比AI更擅長」的事情,好像有一天AI也可能學會一樣。它們是只有一個有限的、有歷史的、身處世界之中的、能夠被世界所改變的存在者才能做到的事情。而AI不是這樣的存在者。不是因為技術不夠先進,而是因為它的存在方式根本不同。

這就是人的位置。不在比較的維度上。不在「我比你更會做什麼」的維度上。而在一個AI根本不在的維度上,承擔和賦義的維度上。

但指出這個位置是一回事。守住它是另一回事。

因為正如前面幾節所分析的,世界模型的優化邏輯、判斷的代辦機制、不確定性的系統性消除,這些力量不會直接攻擊人的承擔能力和賦義能力。它們做的是更隱蔽的事:讓承擔變得不必要(因為AI已經預判了所有後果並選擇了最佳方案,你只需要確認),讓賦義變得多餘(因為AI已經分析了所有面向並提供了完整的解釋,你不需要自己去尋找意義)。

一種能力,如果長期不被需要,就會萎縮。承擔的能力如此,賦義的能力亦是如此。

這意味著,守住人的位置不是一個一次性的宣言:「我們宣布人是有價值的」,而是一個持續的、需要被積極維護的實踐。它要求我們在一個越來越不需要我們自己判斷、自己承擔、自己賦義的環境中,仍然堅持判斷、承擔和賦義。

這種堅持的具體形態是什麼?在日常生活的不同領域:認知、情感、時間、人際關係,主體性的危機以什麼樣的方式顯現,而我們又可以在什麼樣的層面上回應它?

這是下一節要展開的問題。

第五節 主體性危機的四個具體形態

前面四節所做的事情,是在概念的層面上建立對主體性危機的理解:操作性理解與存在性理解的區分、判斷被代辦的機制、不確定性的消失、以及人的位置在於承擔和賦義而非計算。

但是,概念如果不落地,就只是概念。

這一節的任務不同於前面四節。它不會再引入新的理論框架。它要做的是:把前面建立的所有分析,壓進日常生活的肌理中,讓讀者看到主體性危機不是一個抽象的哲學命題,而是一種正在發生的、可以在每天的生活經驗中辨認出來的存在狀態。

我將描述四個具體的形態。它們不是四個獨立的問題,而是同一場危機在四個不同的生活維度上的顯現。而且,這一點很重要,本節不會提出解方。不是因為解方不重要,而是因為如果讀者還沒有真正感受到問題的重量,任何解方都會淪為口號。

第一個形態:認知外包,不再獨立判斷

這是四個形態中最容易被辨認的一個,因為它已經在發生了。

一位大學教授告訴我,她注意到近兩年來學生的一個變化。當她在課堂上拋出一個開放性的問題,一個沒有標準答案、需要學生自己思考和辯論的問題,越來越多的學生的第一反應不是思考,而是低頭看手機。不是在查資料。是在問AI。

她描述的不是「作弊」。學生不是在偷偷地讓AI替他們寫作業。他們是在真誠地尋求幫助,「我不確定自己的想法對不對,讓我先看看AI怎麼說。」問題在於這個「先」字。它意味著AI的回答變成了思考的起點而不是參考。學生不是先形成自己的判斷然後與AI的觀點比較,而是先看AI的觀點然後決定自己是否同意。

這個順序的顛倒看起來微不足道。但它改變了思考的整個結構。

當你先形成自己的判斷再參考AI時,你的思考是自主的,你在與AI的觀點對話,你可能同意它,可能反駁它,可能從中得到啟發然後發展出一個你和AI都沒有想到的第三種觀點。在這個過程中,你的判斷力在被使用、被鍛鍊、被保持。

當你先看AI的觀點再形成自己的判斷時,你的思考是被錨定的。認知心理學中有一個被大量實驗所驗證的效應:錨定效應(anchoring effect),人的判斷會被最先接觸到的資訊所強烈影響,即使那個資訊與判斷的對象無關。當AI的回答成為你思考的起點時,你的「獨立判斷」實際上已經被AI的框架所錨定了。你以為你在獨立思考,但你的思考軌跡已經被那個最先映入眼簾的AI回答悄悄地限定了方向。

而當這種習慣被重複了一千次、一萬次之後,在每一次面對不確定性的時候都先問AI,你的判斷力就不再只是被「錨定」了,它是被替代了。不是在某一個戲劇性的時刻被替代,而是在一萬個微小的「先看看AI怎麼說」中逐漸地、無聲地被替代。

等到有一天你面對一個AI無法幫助你的情境,一個需要你在沒有任何參考答案的情況下做出判斷的情境,你會發現:你不是不敢判斷。你是不知道從何開始判斷。那個「從零開始思考一個問題」的能力,已經因為太久沒有被使用而萎縮了。

第二個形態:情感代辦,讓模型管理關係

第二個形態比第一個更深,也更不容易被辨認。

一個朋友向你傾訴她正在經歷的婚姻困境。她沒有問你「我該怎麼做」。她只是需要一個人聽她說話。但你發現自己不知道該怎麼回應。你的腦中浮現的第一個念頭是:也許我應該把她的情況描述給AI聽,看看AI建議怎麼回應。

讓我們在這裡停一停。

這個念頭本身就是一個信號。它意味著你在面對另一個人的真實痛苦時,你的第一反應不是用你自己的存在去回應她的存在,而是去尋找一個「正確的回應方式」。好像回應一個人的痛苦是一個可以被優化的任務,有一個最佳話術、一套最有效的安慰策略、一種被心理學研究所驗證的最佳傾聽姿態。

AI確實可以提供這些。它可以分析你朋友的情緒狀態,建議你使用開放式問題而非封閉式問題,提醒你避免說「至少你還有……」這類被心理諮詢研究證明會令人反感的句型,建議你在特定的時機表達共感而非建議。這些技巧是有用的,在某些情境下,它們確實能夠改善互動的品質。

但如果你在面對每一次情感上的不確定,不知道該說什麼、不知道對方需要什麼、不知道自己的感受是什麼,都依賴AI來提供指引,那麼有一樣東西就會在這個過程中被抽空:你自己作為一個有情感的存在者,在面對另一個有情感的存在者時,那種笨拙的、不完美的、但完全真實的在場。

你的朋友需要的,也許不是一個「最佳的回應」。她需要的是你,帶著你的笨拙、你的不確定、你的不知道該說什麼,仍然坐在那裡,仍然看著她,仍然在場。你的在場之所以有意義,不是因為你說了正確的話,而是因為你是一個和她一樣脆弱的人,你願意把自己的脆弱暴露在她的脆弱面前。

而這種在場,恰恰是AI不能提供的。不是因為AI的語言不夠好,它的語言可能比你的更得體。而是因為AI不脆弱。它的「在場」是功能性的,不是存在性的。它的「共感」是模擬的,不是被另一個人的痛苦所真正觸動的。

當我們越來越頻繁地用AI來「管理」我們的情感互動,用它來起草安慰的訊息、用它來分析伴侶的情緒、用它來規劃和朋友的相處方式,我們不是在變得「更善於處理情感」,我們是在把情感互動從一種存在性的相遇,降格為一種可以被優化的操作。

而一旦這種降格發生了,情感關係中最珍貴的東西,兩個不完美的人在不確定中彼此摸索、彼此傷害、彼此原諒、彼此在對方的脆弱中看見自己,就會開始流失。不是因為我們不再需要關係,而是因為我們的關係變成了一種被管理的舒適,而不再是一種被承受的真實。

第三個形態:時間壓縮,失去慢想與等待的能力

第三個形態與時間有關。

世界模型的一個核心能力是加速,加速預測、加速決策、加速行動。在很多場景中,加速是有價值的。但加速的邏輯一旦滲透到人的內在時間結構中,就會產生一個意想不到的後果:人失去了「慢」的能力。

什麼叫做「慢」的能力?

它是你在讀一段艱深的文字時,願意重讀第三遍而不是去問AI「這段話在說什麼」的能力。它是你在面對一個重要的人生決定時,願意花三個月的時間在不確定中醞釀,而不是要求AI在三分鐘內給你一個分析報告的能力。它是你在等待一個你關心的人的回覆時,願意承受那段等待中的焦慮,而不是用AI的預測來提前消解焦慮的能力。

它是你在一個問題面前不急著找到答案、而是願意讓那個問題在你的內部住一段時間的能力。

德國詩人萊納·瑪利亞·里爾克(Rainer Maria Rilke),——也許是二十世紀最偉大的德語詩人之一,在1903年寫給一位年輕詩人的信中說過一段被廣泛引用的話。里爾克勸告那位年輕人:不要急著去尋找答案。要學會愛問題本身。要像對待一間上了鎖的房間、一本用非常陌生的語言寫成的書那樣,去對待那些你目前無法解答的問題。不要現在就去搜尋答案。那些答案不能被給予你,因為你還無法活出它們。重要的是去活每一件事,現在就去活那些問題,也許有一天,在遙遠的未來,你會不知不覺地活進答案裡。

活進答案裡」,這個措辭精確地描述了一種只有在慢的時間中才可能發生的認知過程。它不是「找到答案」。它是「活著活著,忽然發現自己已經在答案裡面了」。這個過程不能被加速。因為它的本質就是時間,問題需要在你的內部被攜帶一段時間,需要與你的其他經驗碰撞、混合、沉澱,然後在某個你無法預見的時刻,以一種你無法預先設計的方式,轉化為理解。

而AI的整個設計邏輯是反這種時間結構的。它的承諾是:你不需要等待。你不需要在不確定中醞釀,你不需要「活進答案裡」,你可以現在就得到答案。這個承諾在大多數情境中是有益的,你不需要花三天時間研究一個法律問題,AI可以在三分鐘內給你一個概要。但當這個承諾被無差別地推廣到所有領域,包括那些只有在慢的時間中才能產生真正理解的領域,它的後果就是:人失去了在時間中醞釀的能力。

每一個問題都要求即時的解答。每一個困惑都要求立刻的消解。每一段等待都被視為效率的損耗。在這樣的時間結構中,里爾克所說的那種「活進答案裡」的過程,就沒有發生的空間了。不是因為人不想慢下來。而是因為整個環境都被設計成不允許慢,慢意味著低效,低效意味著可以被優化,而可以被優化的東西在一個充滿AI的環境中會自動被優化掉。

第四個形態:他者消失,把人也當成可被模型化的對象

第四個形態也許是四個之中最隱晦的,但也可能是後果最深遠的。

當一個人長期使用世界模型式的思維方式來理解周遭的一切,預測、分類、優化,這種思維方式會不會逐漸蔓延到他理解其他人的方式上?

讓我描述一個場景。你的一位同事最近工作表現下滑了。他經常遲到,開會時心不在焉,交出來的報告品質明顯不如從前。你的AI工作助理已經偵測到了這個模式,並向你提供了一份分析:「基於近三週的行為數據,這位同事的工作投入度下降了23%。可能原因包括:家庭狀況變化(機率42%)、對目前專案的倦怠(機率31%)、健康問題(機率18%)、正在尋找其他工作機會(機率9%)。建議:在一對一面談中探詢原因,同時準備備案以降低專案風險。」

這份分析是有用的。但讓我們注意它做了什麼:它把一個人,一個有名字、有歷史、有你不知道的內在世界的人,轉化為一組行為數據和機率分布。他的遲到是一個數據點。他的心不在焉是另一個數據點。他的整個人被壓縮為一個「工作投入度下降23%」的指標,然後被放進一個「可能原因」的機率模型中。

AI做這件事是合理的,它不是人,它只能用數據來理解世界。問題不在AI。問題在於:當你長期使用這種方式來「理解」你的同事時,你自己理解他的方式會不會開始改變?

你會不會開始不自覺地把他視為一組可被預測的行為模式,而不是一個你無法完全理解的、帶有不可化約的他者性的人?你會不會在見到他的時候,腦中浮現的不是「他最近還好嗎」,而是「他的投入度曲線什麼時候會回升」?你會不會在與他的對話中,不是在真正傾聽他,帶著對他的內在世界的好奇和尊重,而是在驗證AI的預測模型,「他提到了家裡的事,看來42%的那個假設是對的」?

如果這些事情發生了,而它們在一個AI深度整合進工作流程的環境中完全有可能發生,那麼被消失的不只是你對這個特定同事的理解。被消失的是他者性(alterity)本身,另一個人作為一個不可被完全模型化的、始終超出你的理解的、具有不可化約的獨立存在的主體的那個維度。

列維納斯所說的「面容」,指的正是這個維度。他者的面容,那張暴露了他的脆弱性和不可窮盡性的面容,對你提出了一個無聲的要求:不要把我化約為你的模型中的一個變數。我不是一組機率分布,我是一個你永遠無法完全理解,因此必須始終帶著敬意去接近的存在者。

當AI的模型化思維成為你理解他人的預設模式時,這個「面容」就消失了。不是因為你看不見對方的臉。而是因為你看見的不再是一個不可化約的他者,而是一組可以被分析、預測和管理的行為參數。

而當他者消失的時候,倫理也就消失了。因為倫理的前提是:你面前的這個人不是你的模型所能窮盡的。他始終超出你的理解。正是這種超出,這種你永遠無法把另一個人「搞清楚」的事實,要求你帶著謙遜、敬意和開放去面對他。一旦你覺得你已經「搞清楚」了他,他的投入度下降了23%,可能原因是這四個,謙遜就消失了,敬意就消失了,開放就消失了。剩下的是管理。

而人不應該被管理。人應該被相遇。

四個形態的交匯

認知外包、情感代辦、時間壓縮、他者消失。

四個形態不是四個獨立的問題。它們是同一場危機在四個維度上的投影。而且,它們彼此強化。

認知外包讓你失去了獨立形成判斷的習慣,這使你在面對情感上的困境時更加依賴AI的指引(情感代辦)。情感代辦讓你習慣了用操作性的方式處理人際關係,這使你對另一個人的他者性越來越不敏感(他者消失)。他者消失讓你把人視為可預測的行為模式,這使你對「慢慢理解一個人」這件事失去了耐心(時間壓縮)。時間壓縮讓你對所有需要醞釀的認知過程失去了耐心,這使你更頻繁地在第一時間就把思考交給AI(認知外包)。

一個閉環,一個自我強化的閉環。

而這個閉環的總體效果,可以用一個詞來概括:存在的萎縮

不是某一種能力的喪失。是一種整體性的變薄,你作為一個能夠感受世界的厚度、能夠被他者的脆弱所觸動、能夠在時間中醞釀理解、能夠在不確定中做出承擔的存在者,那個「厚度」在變薄。

你仍然在生活。你的生活甚至可能比以前更高效、更順暢、更少摩擦。但你在生活中的「在場」,你作為一個主體棲居在自己生命中的那種密度和重量,正在減輕。

這是主體性危機最終的面貌。不是被取代,不是被壓迫,不是被消滅。是變薄。是在一切都被安排得井井有條的生活中,漸漸地、舒適地、不知不覺地,失去了那個讓生命之所以是「我的」生命的東西。

而在看到了這個面貌之後,在真正感受到了它的重量之後,我們才能認真地追問:面對這場危機,什麼樣的思想資源是我們需要的?哲學能夠提供什麼樣的回應?而這個回應,最終又指向什麼樣的文明方向?

而這是下一章的任務。

 

留言
avatar-img
Dino Lee的AI 智識館
3會員
21內容數
這裡是一個探索 人工智慧 × 人文思想 × 跨域研究 的知識空間。 從《深度認識人工智慧》出發,分享 AI 的基礎概念、最新發展,以及它與心理學、哲學、社會的深度對話。
2026/03/24
世界模型時代最需要被守護的東西,不是數據安全,不是演算法公平,不是隱私保護,這些都重要,但它們都是在技術的層面上可以處理的問題。最需要被守護的,是一個更根本的、更脆弱的、更不容易被制度化地保護的東西:人的主體性。一個能夠獨立感知世界、獨立形成判斷、獨立做出選擇、並為選擇承擔後果的存在者的那個資格。
Thumbnail
2026/03/24
世界模型時代最需要被守護的東西,不是數據安全,不是演算法公平,不是隱私保護,這些都重要,但它們都是在技術的層面上可以處理的問題。最需要被守護的,是一個更根本的、更脆弱的、更不容易被制度化地保護的東西:人的主體性。一個能夠獨立感知世界、獨立形成判斷、獨立做出選擇、並為選擇承擔後果的存在者的那個資格。
Thumbnail
2026/03/21
研究者正在嘗試建構所謂的「社會世界模型」,試圖讓AI學會預測人類的社會行為。大型語言模型在某種程度上已經展現了對社會規範的「隱含理解」,至少在語言的層面上,它們知道什麼話是禮貌的、什麼是冒犯的。而近年來的「心智理論」(Theory of Mind)研究也在探索如何讓AI推測他人的信念和意圖。
Thumbnail
2026/03/21
研究者正在嘗試建構所謂的「社會世界模型」,試圖讓AI學會預測人類的社會行為。大型語言模型在某種程度上已經展現了對社會規範的「隱含理解」,至少在語言的層面上,它們知道什麼話是禮貌的、什麼是冒犯的。而近年來的「心智理論」(Theory of Mind)研究也在探索如何讓AI推測他人的信念和意圖。
Thumbnail
2026/03/20
一個人形機器人被研究員猛推了一把,它踉蹌了兩步,然後穩穩地恢復了直立姿態。這個簡單的動作,是從數十億步虛擬世界中的試錯學來的。機器人的運動策略是從它與虛擬世界的互動中湧現出來的,就像一個孩子不是被教會走路的,而是在反覆嘗試和跌倒中學會的。世界模型提供了一個足夠逼真的練習場,讓這種湧現有了發生的條件。
Thumbnail
2026/03/20
一個人形機器人被研究員猛推了一把,它踉蹌了兩步,然後穩穩地恢復了直立姿態。這個簡單的動作,是從數十億步虛擬世界中的試錯學來的。機器人的運動策略是從它與虛擬世界的互動中湧現出來的,就像一個孩子不是被教會走路的,而是在反覆嘗試和跌倒中學會的。世界模型提供了一個足夠逼真的練習場,讓這種湧現有了發生的條件。
Thumbnail
看更多
你可能也想看
Thumbnail
生成式 AI 已經能創作圖片、影片與音樂,但能否直接生成一個可探索、可互動的 3D 世界?Google DeepMind 在 2025 年 8 月 5 日發布的 Genie 3 正是這個方向的重要突破。它不只是視覺內容生成,而是提供了一個能「在世界中行動」的 AI 平台
Thumbnail
生成式 AI 已經能創作圖片、影片與音樂,但能否直接生成一個可探索、可互動的 3D 世界?Google DeepMind 在 2025 年 8 月 5 日發布的 Genie 3 正是這個方向的重要突破。它不只是視覺內容生成,而是提供了一個能「在世界中行動」的 AI 平台
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
本文除了整理 AMI 的核心主張,也深入剖析其隱含假設與潛在偏誤,並提出值得持續追問的關鍵問題——因為當 AI 變得「愈來愈正確」,真正值得思考的,或許不只是技術本身。
Thumbnail
本文除了整理 AMI 的核心主張,也深入剖析其隱含假設與潛在偏誤,並提出值得持續追問的關鍵問題——因為當 AI 變得「愈來愈正確」,真正值得思考的,或許不只是技術本身。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
Meta AI 推出新一代影像分割模型 SAM 3 與 3D 重建模型 SAM-3D。本文將深度解析其核心技術、應用場景,以及它如何透過文字指令和單張照片,改變我們與數位世界的互動方式。
Thumbnail
Meta AI 推出新一代影像分割模型 SAM 3 與 3D 重建模型 SAM-3D。本文將深度解析其核心技術、應用場景,以及它如何透過文字指令和單張照片,改變我們與數位世界的互動方式。
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
這篇不是技術白皮書,僅是站在 2025 年尾聲的觀察: LLM 還是你心中的那個答案嗎? 算力再上去一點,電力再多消耗一點,scaling up 就真的會帶著我們走向 AGI 的終點嗎? 還是你更認同 Yann LeCun 的「世界模型」觀點——他認為 LLM 缺乏對物理世界的真實理解,單純依
Thumbnail
這篇不是技術白皮書,僅是站在 2025 年尾聲的觀察: LLM 還是你心中的那個答案嗎? 算力再上去一點,電力再多消耗一點,scaling up 就真的會帶著我們走向 AGI 的終點嗎? 還是你更認同 Yann LeCun 的「世界模型」觀點——他認為 LLM 缺乏對物理世界的真實理解,單純依
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News