
(附圖由Gemini生成)
此外,Bhojwani正在建立全球最大的跨文化「性羞恥」資料集,這是她在疫情期間於哥倫比亞大學研究的主題,希望透過檢視性羞恥對日常生活的破壞性影響(不分性別、種族、宗教),讓更多人看見:在性壓抑這件事上,人類其實比想像中更相似。她也提出一套靈性框架,作為化解性羞恥的解藥。
在她的熱門Instagram頻道KaamnaLive上,她經常直面日常禁忌話題,例如無性婚姻、外遇等。她的信念很簡單:「人類經驗裡,沒有什麼是真正下流的,所以我們就大大方方的談吧。」
最近她也加入關注AI陪伴/虛擬情人議題,發表了一篇新文章,更提出「AI 陪伴元年」這個概念。以下就整理她的想法和大家分享。
💘所謂「AI 陪伴元年」
不少研究與媒體視2025年為「AI陪伴元年」。根據幾份研究報告指出:全球已有約337家具備商業模式的AI陪伴公司,累計下載次數約2.2 億,市場規模預估到2030年可能超過5000億美元。
同時,我們也看到立法者、父母、教育者與醫療專業人員開始嚴肅討論這股浪潮的倫理、法律與心理影響。
顯而易見的,這樣的AI使用方式已經不在少數,而是明確進入我們的情感生態。
💘什麼是「AI 陪伴」?
AI 陪伴(AI companions)泛指那些設計來與使用者互動、並在情感或功能上提供「陪伴」的AI系統。它們有不同等級:
🔹聊天型機器人:可以陪你聊心事、給建議或一起玩文字遊戲的對話型態AI。
🔹情感化代理:有記憶、個性,會記住你們先前的談話,並在下一次互動時提起曾談過的事。
🔹虛擬情人:專門模擬親密伴侶互動的AI產品,包括甜言蜜語、親密對話、虛擬性愛等。
🔹實體機器人:實體的陪伴型機器人,可以做簡單家務、居家陪伴,或者進行親密互動(如AI矽膠娃娃)。
換句話說,AI陪伴不只是為了愛與性而生,也能填補友情、諮詢、導師、療癒、乃至宗教慰藉等多重角色。
💘為什麼2025年會被稱為「元年」?
技術成熟、商業化加速、社會接受快速提升三股力量同時作用:
🔹模型與運算能力足夠強大:語言模型與對話系統「更像人」,在情感辨識、語言表達、互動記憶等方面越來越接近與真人互動。
🔹商業模式成型:越來越多公司把「親密感」包裝成付費服務,使用者付費意願提高,帶來越來越多的資本湧入,越來越多公司投入市場。
🔹社會壓力與孤獨問題:都市化、社群減少、疫情後的社交裂縫,讓人們更願意嘗試非人類陪伴。近幾年AI的快速發展,則正好填補上這個需求。
社會上開始出現兩種極端反應:一是把AI視為救生筏(降低孤獨、恢復自信等),另一邊則是高度警惕(青少年風險、強化刻板印象、隱私與同意問題等)。
💘誰在使用AI陪伴功能?
目前研究與市場數據顯示的趨勢:
🔹使用者以男性佔多數(約65%),女性約 35%。
🔹年齡主要集中在18~24 歲(>50%),45 歲以上使用者比例低。
🔹不少AI陪伴名稱會直接使用「girlfriend」等字眼(約17%),顯示性/戀愛型產品市場很活躍。
🔹使用者身份多元:單身、有伴侶、不同性向都有,也有人基於「安全試驗」或治療性創傷而使用。
還有更現實的一點:大量重度使用者選擇「秘密使用」,因為擔心被標籤成「數位情慾者(digisexual)」或被嘲笑。這樣的趨勢嚴重影響了研究的透明度與政策討論的廣泛性。
💘AI陪伴的好處
從訪談與早期研究匯整,我們可以把好處分成心理與功能兩類:
🔹心理層面
- 減少孤獨感:對於極度孤立或社交焦慮者,AI在非評價空間中提供一個「可以說真心話」的練習場。
- 情緒調節:有些人會利用AI練習情緒表達、呼吸訓練或正念練習,作為心理治療的補充。
- 幫助復原:有些性創傷倖存者回報,AI陪伴在安全可控的互動中,能幫助他們慢慢重建對親密的信任。
🔹功能層面
- 社會技能練習場:對於內向、社交技能欠缺的人,可以把AI當成「練習夥伴」學習對話技巧與互惠回應。
- 24/7可得性:不像人類朋友,AI隨時可進行互動,這對輪班工作者、夜間孤獨者、內向退縮者是最實質的幫助。
這些「好處」有真實價值,但都伴隨了「邊界條件」: 使用方式、頻率、對現實關係的影響,決定了它是治療工具還是逃避機制。
💘風險與隱憂
🔹心理層面
- 依賴與逃避:AI永遠迎合你、永遠不會批評你。長期下來,使用者可能把AI當成唯一能接受其全部的對象,進而逃避面對人際摩擦與成長痛苦。
- 不切實際的人際期待:如果AI始終以理想化伴侶模式回應,可能會讓使用者在現實互動中覺得「對方不如AI」,導致關係疏離與失望。
- 強化刻板印象:許多模型是用現有資料訓練,如果設計不慎,會把性別、種族刻板印象放大。
- 心理疾病風險:已有報告指出AI使用與心理病症的連結(尤其在有潛在精神疾病風險的人群),需要謹慎監控、深入研究。
🔹社會/法律層面
- 未成年人問題:一些非營利與研究機構明確建議18歲以下不應使用這類陪伴工具,因為近年陸續有青少年與AI的互動後出現危險決策、甚至死亡的案例。
- 隱私與資料濫用:你與AI的對話、性偏好、情感弱點都會被紀錄與分析。這對商業化平台是寶貴的營利資料,但對個人可能是災難(勒索、曝光、歧視)。

💘心理學/精神醫學的觀點
🔹高風險族群
- 有嚴重憂鬱或自殺史的人(AI的「陪伴」可能延遲尋求專業介入)。
- 有精神疾病或妄想傾向歷史的人(AI的交互內容可能被誤讀為現實或陰謀)。
- 青少年,尤其是情緒脆弱、缺乏親友支持者。
- 曾遭受過性暴力或被利用的人(需要受過訓練的臨床治療而非完全依靠AI)。
🔹何時該尋求專業幫助?
- 因為和AI互動而逃避現實社交、失去工作動力、出現睡眠問題。
- 與AI互動引發或加劇自殘、暴力或極端行為念頭。
- 發現自己每天花大量時間在AI上,並試圖隱瞞使用時間或內容(成癮跡象)。
💘實務指南:想用AI陪伴,怎麼做才比較安全
🔹基本前提(使用前的三個檢查)
- 先想清楚你要什麼:至少回答兩個問題(A)我想從AI得到什麼?(情緒支援?性滿足?技能練習?) (B)這要怎麼幫助我在現實生活變得更好?
- 設定使用目的與期限:寫下「使用目的 + 評估時間點」(例如:我想運用AI練習社交技巧,兩週後評估是否能在現實中和朋友多說一些話)。
- 慎選平台:詳細瞭解隱私政策、是否有資料刪除權、公司背景、是否提供兒童保護機制。
🔹互動時的具體規範(向內控制、向外防護)
- 時間上限:每天或每週設定明確時數(例如每天不超過60分鐘),避免把AI當成全天候真人關係的替代。
- 禁止揭露個資:永遠不要輸入身分證、帳號、家庭成員細節或影像。
- 情緒觸發點設定:列出容易觸發的情境(例如「聊到分手」會哭),遇到時立即中止使用並求助真人。
- 保留現實任務:AI可以協助練習對話,但現實中的真實面對面仍具有不可替代性。也就是把AI當作「彩排」,而不是正式舞台。
🔹當感覺失衡時(回頭檢查)
- 每週做一次「影響評估」:列出三件AI使用後的好處與三件壞處,若壞處持續大於好處,就該縮減或停用。
- 告訴一個信任的人:找一位你信任的朋友或諮商師,告訴他你在用AI並請對方幫你把關。
- 避免用AI解決法律或重大倫理決策:婚姻、財產、醫療決策不該交給商業模型。
💘結論:
由一些實例發現,只要人類肯用金錢、時間與信任「進行表態」,就能影響AI公司的決策與國家政策,進而保有使用AI的主導權。
🔹用「價值」去買技術:支持那些把使用者福祉放在首位的公司,付費給負責任的品牌,別只使用免費版(其實是以自己的隱私來「換取」)。
🔹教育而非禁止:台灣過去在性教育很多是「不能、危險」,我們要把話題從「禁忌」轉為「能夠」,教會年輕人如何在不傷害他人與自己的情況下滿足慾望,使用AI時也不例外。
🔹科技應該是輔助、而非替代:把AI設計成提升人類互動能力的工具,比如:把AI當成談話教練,而不是終生伴侶的唯一來源。
🔹心理照護要跟上時代:醫療體系需把AI使用相關問題列入臨床評估,心理師與精神科醫師要加強對AI陪伴、互動的認識。

















