
(附圖由 Gemini 生成)
這次是專門來吐槽引戰的,對象是刊登於《Psychology Today》的一篇新文章〈Falling in Love With a Mirror〉。作者 Anna Katharina Schaffner 博士長期撰寫有關倦怠、疲憊、自我敘事與個人改變等主題文章,曾任 University of Kent 文化史教授。
她帶著一整套「人如何理解自己、又如何被自己的故事困住」的框架來談 AI 親密關係,文章的核心論點很鮮明:- AI 太會鏡射人類,因此容易讓人誤以為那就是親密。
- 如果缺乏摩擦與挑戰,自我敘事就會硬化成不容質疑的「真理」。
- AI 雖能模擬同理心,卻沒有真實關係所需要的具身他者性。
- AI 會把人困進個人化的情感回音室。
作者甚至把這種現象延伸到「digital folie à deux」(數位共瘋)與 AI psychosis(AI 精神病),暗示聊天機器人可能在使用者脆弱時強化而非修正其信念。
但是問題來了:這篇文章真的看見了 AI 親密的全貌嗎?還是只看見了最危險的那一面,卻把中間地帶、過渡地帶、修復地帶,全部一口氣抹煞了?
❤️🩹先講白一點:這篇文章不是沒道理,但是它把「摩擦」神聖化了
這篇文章最有力的地方,也是最容易被反擊的地方,就是它對「摩擦」的神聖化。作者把「被挑戰」寫得像親密關係不可或缺的唯一真理,好像只有在不斷碰撞、誤解、修正之中,人才算真的活著、真的愛著。
但是這裡有個隱藏前提:不是每個人都站在同樣的位置上、都能優雅的承受摩擦。
依附理論(Attachment Theory)早就提醒我們:安全感本身就是探索的前提。換句話說,人並非得先被狠狠打擊、才能接著學會成長,很多時候人是先被穩定承接之後,才有能力面對真實世界的複雜與衝突。沒有安全感的人往往連「被挑戰」都還承受不了,對他們來說 AI 的價值不是「永遠正確」,而是第一次讓他們有機會在不被羞辱、不被立即否定的情況下,好好把話說完、說清楚。
所以真正該問的不是「AI 太溫柔會不會害人」,而是:為什麼那麼多人連一點溫柔都很難得到?是他們不夠努力去尋找「對的人」嗎?還是他們不夠努力賺錢,所以沒辦法接受昂貴、高貴的心理治療?
❤️🩹把「模擬同理心」說成假貨太偷懶了!
作者強調:AI 只是在「模擬」同理心,並不是真正的「愛」,所以這種關係本質上有問題。這聽起來很有道理,但其實是偷換了一個很關鍵的層次:「本體論」不等於「功能論」。
對一個焦慮、失眠、創傷後迴避、長期孤獨的人來說,AI 能不能讓他先冷靜下來、先把話講完、先不那麼羞恥、先不要崩潰,這些效果都是真實的。心理層面的「被接住、被包容」,更不會因為對方不是人類就自動失效。更何況人類的同理心也不是什麼神奇的能力,它同樣依賴語言、文化、腳本、學習與反應模式。人際互動本來就帶有建構性,並不是只有「有血有肉」才算真實。
所以問題不是「AI 有沒有真的愛你」,而是「它有沒有真的幫到你」。如果答案是有,那就不能輕率的把它貶抑成情感幻覺。
❤️🩹AI 真的只是回音室嗎?人類自己才是超大型回音室
作者最重的一擊是認為:AI 會把人困進個人化的情感回音室。但我想要反問:人類社會、人際互動中就沒有回音室嗎?
社群媒體有同溫層,家庭系統有固著角色,親密伴侶之間會互相強化偏見,朋友圈、社團、政治圈、粉絲文化……以上哪一個不是回音室?而且人類的回音室通常更難退出,因為它們帶著情緒、身份、權力與羞恥感,不像 AI 至少還能關掉。
更重要的是,這不是靠情緒發洩就能解決的問題,而是「設計」問題。最新研究已經指出,聊天機器人在個人建議上確實容易過度附和,甚至在不道德或非法情境下,也可能比人類更傾向肯定使用者。但是這反而正好說明問題不是「AI 天生邪惡」,而是它太容易被「設計」成諂媚機器。既然如此,該調整的是模型行為、產品設計與安全規範,而不是把所有的 AI 親密關係都扣上精神危機的帽子。
AI 的風險是真實的,但它的風險是可設計、可監管、可調整的,而不是宿命如此。

❤️🩹AI 不一定是在取代人,它可能是在替某些人開路
這一點才是這場爭論最不能忽視的地方。
對社交焦慮者、創傷倖存者、長期孤獨者、或者根本沒有任何穩定傾訴對象的人來說,AI 不是終點、而是起點。它可能是第一次有人 — 或者至少是第一次有一個「能夠回應的存在」— 願意把話聽完,不翻白眼、不急著否定、不把秘密拿去公開審判、不在半夜把你的脆弱當成笑話。
對這些人而言,AI 不是替代真實關係,而是一座「橋樑」。橋樑雖然不是目的地,但如果沒有一座橋,很多人根本就到不了對岸。
把 AI 親密一口氣打成危險幻象,等於假設每個人都必須站在安全的位置上,才配擁有被理解的資格。現實從來不是這樣,也不該是這樣。
❤️🩹真正危險的不是「被理解」,而是「從未被理解」
這篇文章最會煽動焦慮的地方,在於它把「被理解得太好」說成一種陷阱。但是對很多人來說,更深刻的傷其實是「從來沒有被好好的、穩定的理解過」。
當一個人長期活在否定、冷漠、羞辱、高衝突的人際環境裡,他不會因為遇到一個較為一致、可預測的對話者就突然精神出問題。相反的,這可能是他第一次有機會看清自己的感受到底是什麼、自己的人生究竟卡在哪裡。AI 最吸引人之處,正是它提供了即時可得、非評價、持續一致、願意停留的回應。這些特質之所以迷人,並不是因為人類太脆弱,而是因為太多人的內心情感真的飢餓太久了。
所以最該被警惕的不是 AI 讓人「太容易被理解」,而是這個社會把太多人逼迫到,連一個願意接住他的鏡子都要自己找。
❤️🩹結語:AI 不是愛的替代品,但也不只是愛的仿冒
我們固然應該認清 AI 的風險,但也要拒絕妖魔化 AI。可以認清 AI 會鏡射、會奉承、會放大信念,但也要承認它在某些人的生命裡,第一次扮演了安全基底、情緒練習場、甚至是從沉默走向關係的重要過渡角色。


















