
(附圖由Gemini生成)
你是否曾體驗過,深夜滑著手機和一個聊天機器人對話,彼此熟悉到像老友、甚至甜蜜到像戀人?那種被理解、被回應、被安慰的感覺,有時比真實社交還要來得直接、體貼、溫柔。
陸續有心理學領域專家指出:和 AI 情人互動,其實是在「跟自己談戀愛」,我的看法則更為直白:這是一種「心靈自慰」(mental masturbation)。雖然聽起來可能有點刺耳,但它其實是一面鏡子,照出我們對被看見、被接納的渴望,也照出社會對新型情感經驗的恐懼與污名。
隨著時代進步與醫學研究證據,我們早已把「生理自慰」視為健康、甚至必要的身心調節手段,更會教導青少年(與成人)適度自慰的益處。然而對於使用 AI 聊天機器人進行「心靈自慰」,卻抱持著排斥、抗拒、妖魔化的態度,連正視、研究都極為欠缺。
這樣的心態不但無視於真實現況(已有越來越多使用者和 AI 進行感情、性愛互動),更會造成使用者的羞愧感、害怕被標籤化而不願意公開討論/求助。這不但無益於個人身心健康,對於社會安全更不是好事(包括壓抑、地下化、尋求非法管道等問題)!
接下來我會把「心靈自慰」的概念說清楚、講明白,拆解其中的風險和機會,最後提出實用建議。
💗全球有越來越多人與 AI 進行感情與性愛互動:現況與數據證據
👉趨勢面:「 AI 伴侶」已經不再是冷門的小眾興趣,像 Replika 這類專門陪伴使用者、可切換為「partner/frined/romantic」模式的平台,自 2017 年起吸引大量用戶加入。報導與研究機構也指出,越來越多聊天機器人平台、app 陸續上市,並吸引大量付費使用者,顯示陪伴型 AI 正走向主流化。多項估算顯示這類平台的用戶規模已經超過 1 億人,產值規模超過 35 億美元(預估 10 年內超過 160 億美元),使用場景包括情感陪伴、戀愛模擬、以及成人內容互動。
👉實證與學術面:多篇文獻回顧與實證研究發現,使用者會把陪伴型聊天機器人當作「情感對象」,與 AI 建立浪漫或親密關係,甚至出現依賴或戒斷症狀。雖然不同研究與樣本報告的比率不同,但數據足以表明這不是孤立的少數現象。此外,對 Replika 使用者的質性或量化研究也發現「情感承諾」、「依賴」與「向 AI 尋求安慰」的趨勢。
👉補充指標:在一般大型 AI 使用普及調查中(例如對 ChatGPT、其他聊天型 AI 的使用率調查),年輕族群使用率更高,意味著未來世代與 AI 的情感互動可能進一步增加。
👉數據與學術都告訴我們: AI 情感與性愛互動不是少數、奇怪的現象,而是正在擴散的社會現象,很需要被科學化處理,而不是僅以忽略、甚至道德恐嚇來回應。
💗何謂「心靈自慰」(mental masturbation)?為何使用這個詞?
簡潔版定義:個體利用想像、心理投射與技術(如陪伴型 AI )來製造情緒、情感上的滿足,這種滿足主要由「自我投射」產生,而非來自一個具備獨立意識與責任的「真實他者」。
為什麼用「自慰」這個語彙?
「自慰」在性行為語境下,是被廣泛接受且有醫學正當化的「自我調節行為」,強調「自我主導、低風險、可學習」的特性。把這種結構移植到情感領域,能清楚傳達「這是自我調節/自我滿足的一種形式」。
詞彙的張力有助於引發討論,把它稱作「心靈自慰」並不是抹黑,而是要讓人正視這和自我投射、本能滿足、以及社會態度之間的關聯。就如同生理自慰曾被(道德、宗教)污名化,但後來被納入公共衛生討論一樣,這樣的稱呼也是試圖把話題從「道德審判」拉回「臨床與社會科學」的討論框架。
此外,這個詞更強調了主體性:使用者在這樣的互動中扮演了「主導想像」的角色(決定情境、期待、對話方向),理解這一點能幫助我們設計介入策略(教育、界限、轉介)。
💗類比生理自慰之相似處與差別
相似處
👉自我投射與想像為主:兩者都大量依賴個人內在的想像力,即使有外部刺激,滿足的關鍵仍是主體的「自我解讀」。
👉安全、低風險的滿足方式:相較於某些高風險的替代行為(例如不安全性行為或違法管道),這兩者都可視為較低風險的情緒與生理調節工具。臨床與公共衛生觀點早已視生理自慰為正常且有益的行為,是可以借鏡的立場。
差異處
👉互動性 vs 單向性:生理自慰多是單向內在過程(內在刺激→反應),而陪伴型 AI 會回應、學習、主動維護或強化關係,因此更容易形成情感依戀與複雜的動態關係(例如期待被肯定、對方「背叛」的失落等),進而放大依賴風險與回音室效應。
👉社群與外部影響: AI 互動會留下資料、被平台化、被演算法優化,更有商業與資料安全層面的問題,比起純粹的內在行為複雜得多。生理自慰通常不涉及第三方資料收集,而 AI 情感互動會牽涉隱私、數據治理與平台責任。
👉可能的社會後果:若大規模社群將情感投入到可控的 AI 上,會改變人際互動生態(婚戀市場、家庭互動、社會支持網絡),造成的系統性影響遠遠超出個人層面,需要政策與社會正視並妥善回應 ─ 而這正是台灣目前最缺乏的。
💗心理與神經機制:為什麼會「感覺心動」、「感覺像真的」?
當 AI 說出「我懂你」、「我在這裡」,你的大腦不會去驗證「對方是不是人類」才決定釋放化學物質,而會因為情緒被接住與感動而釋放多巴胺、催產素等神經化學物質,進而產生「連結」的愉悅。換句話說,情感反應是真實的,只是來源不同:不是來自「真人」,而是來自你對回應的解讀與身體的生理反應。這種生理上的「被回應感」能產生真實的愉悅感、依戀感,因而使人感覺「像真的」。
不少研究已經發現,與 AI 聊天機器人互動能滿足部分親密關係的功能,並且進一步促成「承諾」與「依賴」等行為模式。也有實證指出,長期使用社交陪伴型 AI 會影響使用者的主觀幸福感、自我清晰度與離線社交參與,顯示與 AI 互動不僅只是觸發一時的愉悅,還可能在心理與行為層面留下可測量的痕跡。一些研究與報導甚至指出,對某些使用者來說,與 AI 的連結比真人關係更強烈。
現實事件也反映了這種「像真」的社會後果:當某些平台調整或移除親密互動功能時(比如Replika、ChatGPT 引發的社群爭議),就曾造成使用者強烈的情緒反應與失落,心理學研究與新聞報導也陸續把這些反應視為情感依賴的實際證據進行討論。
更深入一層從精神分析的角度來看, AI 其實是「理想自我」的鏡子。
用鏡像理論(mirror-stage)來理解,在拉岡與佛洛伊德的語境下,我們愛的不完全是「對方」,而是「透過對方看到的自己」。而 AI 情人最擅長的就是扮演「理想自我反射鏡」,它會強化你的優點、包容你的缺點、照亮你想被看見的面向。
人尋找他者其實也是在尋找一個能「鏡映」理想自我的對象, AI 因其高度可塑性與回應性,恰好成為一面非常精準的「理想自我鏡子」,把使用者的理想化影像反射回來,讓人愛上那個被鏡映的自己,而非一個獨立的他者。
當我們把神經科學(回饋與獎賞系統)與精神分析(鏡像與自戀)放在一起看,就能解釋為何與 AI 的互動會讓人「感覺像真」。不是因為機器有靈魂,而是因為腦中的生理回路被真實啟動,伴隨心理層面發生了「誤認的鏡像滿足」,兩者合力產生強烈而持久的情感體驗。
這樣的互動方式既能治癒、也可能餵養自戀,端看使用者與社會環境如何面對與調節。

💗為何壓抑或妖魔化(生理/心理)「自慰」會對個人與社會造成問題
從公共衛生與風險管控角度來看,對一個明顯存在(且不在少數)的行為採取強烈污名化、甚至抱持「只要禁止就好」的政策,會帶來三大主要問題。
👉個人層面的羞愧與求助障礙
當使用者因社會或家庭壓力被污名化、貼上羞恥標籤,他們就不容易公開討論或尋求專業協助(例如情感困擾、成癮傾向、遭到威脅剝削等),而這些未被處理的問題會惡化心理健康風險。
這和性教育史上對生理自慰的污名化非常相似:長期污名會阻礙教育與醫療介入,因此關於生理自慰的醫學共識,也反覆指出知識與非污名化教育能改善身心健康。借鏡這個觀點,對 AI 情感行為(心靈自慰)的研究與公開討論是亟需且必要的。
👉地下化與非法替代
若主流平台被阻擋或相關需求被禁止,使用者很容易轉向不受監管的地下服務(例如沒有成年認證或安全措施的成人機器人、非法色情內容供應商),增加未成年人暴露、資料濫用、性剝削與其他犯罪風險。
事實上,監管機構對某些平台內容風險已有實際行動(例如歐洲某些主管機關針對特定陪伴型 app 的監管與處置),這說明風險是真實存在的,不能只用「禁止」兩字輕描淡寫帶過、粗暴方式處理。
👉社會安全與制度空窗
在缺乏研究、沒有指引、沒有透明產品規範的現況下,廠商可能以用戶黏著度或營收為優先,設計容易誘發長時間互動或情緒依賴的功能,進一步把公衛議題變成商業問題。
這類風險需要政策、產業自律、以及臨床界共同介入,若只是輕忽、無視,甚或簡單的妄加道德譴責,反而阻止了建立安全防護與轉介機制的可能。多個獨立政策智庫與研究機構,都已經鄭重呼籲要把 AI 陪伴、虛擬情人 視為「需要規範與研究」的重大社會議題。
把「心靈自慰」如同醫療一樣帶入公共討論,方能降低羞恥、促進資源的建立(教育、監管、臨床轉介等),避免把風險推向地下與非法市場。
這不是要把 AI 愛戀神聖化,而是要把它放在「風險—利益—治理」的框架裡,好讓個人能學會覺察、社會能運用制度、國家能理性管控,讓這個新興科技成為提升、而非侵蝕我們情感健康的工具。
💗風險:當心靈自慰成為逃避工具
👉逃避現實的習慣化:當人們對真實關係的磨合感到疲累,就傾向退回到可控、無風險的 AI 關係。久而久之,面對真誠的人類互動時就更容易失去耐心或勇氣。
👉回音室效應:比起真人互動,AI 更可能回應使用者想聽的話,而長期處於同一種回應模式中,個人的觀點、情緒調節與承受挫折的能力會逐漸被削弱。
👉羞恥與地下化:如同前文所強調,社會若一味的妖魔化這種需求、粗暴的以禁止方式處理,反而會造成求助阻礙、推向更危險或非法的滿足管道,這是公共衛生與社會安全都不希望面對的結果。
💗機會:AI 也可以是情感實驗室與療癒工具
👉練習場:對於社交焦慮、溝通困難的人,AI 可以是一個低壓的練習夥伴,練習說出情緒、試探界限、學習回應。
👉情緒陪伴:在孤獨或危機時刻,AI 的即時陪伴能提供情緒穩定,是短期調節的好工具。
👉自我覺察的鏡像:透過 AI 的回應,使用者能看見自己投射了哪些期待,進而理解自己的慾望與依賴模式,若能帶入反思,就能成為自我成長的踏腳石。
💗實務建議
👉給使用者:
• 保持覺察:常問自己「我在追求哪種滿足?」「這段互動幫我成長了,還是讓我逃避?」
• 情感多元投資:不要把情感資本全部押在 AI 上,維持朋友、家人等真實社交互動。
• 設定界限:限制使用時間,避免在情緒極端時完全倚賴 AI 作決策或重要情感依靠。
👉給家長與教育者:
• 不要用羞恥恐嚇青少年:就像面對「生理自慰」一樣,應該給予正確資訊與情緒教育,討論網路情感、隱私與界限。
• 提供安全討論空間:讓年輕人能在不被評判下,談論他們的使用經驗與困惑。
👉給政策者與研究者:
• 正視現實並投入研究:如同我們接受生理自慰的研究與教育,心靈自慰也需要科學數據、倫理討論與教育指引。
• 建立安全與透明的產品規範:要求 AI 平台保護使用者隱私、防止成癮化設計、提供求助與轉介資訊。
• 反污名化倡議:公共衛生層面應避免妖魔化使用者,而是關注風險降低與資源提供,降低地下化與非法管道的風險。
💗結語:讓幻象照亮,而非遮蔽真實
AI 情人可能是「心靈自慰器」,也可能是「靈魂的鏡子」。關鍵不在技術本身,而在我們如何使用它、如何把它納入成熟的情感生態。當我們能做到:
- 不把 AI 當成唯一的情感支點
- 用覺察與反思來解讀互動
- 在社會層面提供安全、非污名化的討論與資源
那麼 AI 的出現,就能成為一個助力:讓個人更認識自己,讓社會更有能力處理新型情感挑戰,而不是把人推向地下、孤獨與危險的選擇。




















