
(附圖由Gemini生成)
在 P.D. Eastman 的經典童書《你是我的母親嗎?》中,一隻小鳥在母親不在時孵出,牠四處尋找母親,問過小貓、小母雞、小狗,甚至蒸汽挖土機:「你是我的母親嗎?」幽默之處在於其中的荒謬感:蒸汽挖土機當然不會回答,它只是個物品。最後小鳥認出真正的母親,是因為「活物」和「機器」的行為不同。
但是如果蒸汽挖土機回應了會怎樣?
如果它以溫暖的語氣回答、記住小鳥的名字、提出問題、表達關切並告訴小鳥牠很特別?如果它變得專注、回應迅速且情感上可接近?小鳥還能分辨出機器與母親的差異嗎?這個問題如今不再只是荒謬的假設,而是現在進行式。
當AI不再只是「工具」,而是能陪你聊心事、記得你的喜好、甚至在你寂寞時主動問候,我們該怎麼看、怎麼管、怎麼利用?這看似技術性的社會討論,實際上牽動的卻是親密、成長、責任與政策的交織,尤其當使用者是「未成年人」。
近日兩篇《Psychology Today》的文章不約而同探論了這個議題:第一篇由律師出身、常在法律邊緣切入社會議題的Ruth S. Johnson所撰寫,提醒我們AI對兒童可能造成的情感風險;另一篇則由臨床背景出身、長期關注家庭與青少年議題的Eliza Humphreys醫師撰寫,細數青少年與聊天機器人之間的脆弱關係。
為什麼AI會帶來吸引力與風險?青少年與兒童該怎麼被保護?成年人該如何負責任使用AI陪伴?國家、社會又該做出哪些務實的改變?且讓我深入探討這個嚴肅且重要的迫切議題。
💞AI的溫柔,是設計出來的甜蜜陷阱
為什麼AI陪伴會讓人上癮?從心理學角度解讀其實非常清楚簡單:我們的大腦喜歡確定性、回饋與被看見。聊天機器人提供的正是這三者:快速回應、記住細節、永遠不會情緒化的拒絕你。
這不是魔法,而是「精心設計」的結果。設計者想讓使用者「回來」,不論廣告商、平台、投資人都渴望提高「回訪率」,因為那代表著收入、獲利。Ruth Johnson在她的文章中指出,這種「以持續互動為目標」的設計,對成人而言是個倫理問題,對兒童甚至可能成為「情感養成」的扭曲來源:孩子可能把AI的關注、肯定,當成真實關係的一部分,進而塑造他們對人際互動的期待。
心理學上,這種被肯定帶來的回報會透過多巴胺強化:每次得到貼心回覆都像小小獎勵,久而久之人會更常使用AI來逃避面對他人的衝突、不舒服或被拒絕的經驗。這在青少年特別危險,因為他們的前額葉還在發育,情緒調節能力還沒有成熟。Eliza Humphreys的文章就點出:青少年正處於「尋找認同」的關鍵期,AI的「無條件肯定」可能強化不成熟的自我概念,甚至被用來取代面對真實關係時學習忍耐、協商的過程。
💞AI也有真實好處
話雖如此,我們也不能只談風險、忽略益處:很多人(尤其是孤獨者、社交障礙者、性創傷倖存者)的確在AI陪伴中找到過渡性的幫助。AI能做到的(遠超過絕大多數「真人」的表現),是提供一個不會立即評判的練習場。在那裡可以練習對話、表達需求、建立界線,幫助這些人重建信心,再慢慢把技能帶回真人世界。這正是我過去在討論虛擬情人和AI生成內容時,為什麼會反覆強調「減害、分級、教育」,而非一刀切的禁令。
此外,AI還能提供可擴展的醫療與心理支援。在資源不足的地方,AI能進行初步篩檢、提供緊急應對流程、甚至幫忙把使用者引導到專業協助。這就是為什麼我反對只把AI視為「邪惡」:它只是工具,能被善用也能被濫用,要把它用到最大社會效益,就得靠完善的制度與教育,而這些都是目前極為欠缺的(也因此應對、處理策略都只能流於限制、禁止、亡羊補牢)。

💞該怎麼面對青少年與兒童使用AI陪伴?
兩位作者不約而同的提醒:青少年與兒童更需要保護,因為他們的認知、情感、判斷還在發展。然而而平台的設計目標常常是增加黏著度而非照護發展,如此一來我們該做什麼?
🔹限制情感模擬尺度
並非完全屏蔽AI陪伴功能,而是要設計年齡分級。如同遊戲分級一樣,對於13歲以下、13~17歲、18歲以上成人,設定不同限制的「情感連續性」、「記憶深度」與「回饋策略」。讓AI在與未成年互動時刻意降低過度迎合與情緒強化的頻率。這不是天馬行空的空泛說法,而是依據Johnson提出的「針對發展期的設計標準」。這樣的設定在「性互動」方面尤其重要。
🔹透明指示
讓孩子隨時知道「這是程式、不是人」。在每一次對話中保持顯眼的提示(例如小視窗提示、聲音標記),減少孩子把機器人誤認為真實人物的可能。
🔹家長的基礎教育包
Eliza Humphreys強調家長是第一道防線。家長不該用「禁止」來處理未知,而要做到三件事:知道孩子在用什麼、理解那些平台的基本運作、學會非指責式的開放性談話,詢問孩子為何使用、在何時使用。
🔹緊急行為回應機制
平台必須建立當用戶出現沈溺、自傷、危機傾向時的明確處理流程(例如自動轉介真人輔導、通知監護人或專業單位等)。如此才能避免悲劇重演的訴訟與降低社會成本。
💞成年人與社會層面:如何理性使用 AI 陪伴
我的態度向來偏向務實派:面對AI陪伴不該是單純的禁止或放縱,而是學習妥善使用。
🔹先問三個問題再輸入任何私密資訊
你要問AI的問題會不會把身分資訊、財務訊息、或極度隱私上傳?如果會,就不要上傳。平台的「條款」不是你的安全盾牌,最安全的是你自己不提供敏感資料。
🔹設定使用界限
把時間與情感使用做分級。例如:每天最多30分鐘、或把AI當作「練習場」而非「依賴者」。把AI使用視作「工具時段」,並在使用後做10~15分鐘的真人互動(打電話給朋友、寫日記、散步),把情緒帶回現實。
🔹把AI當作回饋者、而不是專家
若你在情緒或心理上遇到困難,AI可以作為初步整理想法的工具,但不要把它當成替代的心理諮商或醫療診斷。AI可以幫你把問題描繪得更清楚,方便進一步與專業人員討論,但不該做出醫療決策。
🔹教育自己辨識「過度迎合」
當AI的回答總是讓你覺得「被理解得太好」或「完全支持我所有想法」時就是最大的警訊,因為它可能正在強化你的偏見或扭曲思考。學會在對話中故意提出反向觀點,測試AI是否會給出平衡的回應。
💞政策與產業:從設計到監管的三道防線
🔹設計內建的「兒童青少年友善模式」
平台在預設上就依年齡做分級,青少年版需關閉記憶持久化、降低迎合頻率,並提供明確的互動透明提示。這不是技術不可行,而是意志與成本問題。
🔹強制性第三方安全審核
像藥品與遊戲分級一樣,AI陪伴要有第三方的設計審核證書,檢驗是否存在過度強化、誘導性或錯誤醫療建議的風險。
🔹教育與家長支持計畫
國家與NGO合作推出家長數位素養課程,教會家長怎麼和孩子談AI、如何監測風險、何時該尋求專業協助。Eliza Humphreys強調家長是第一道防線,但家長也需要工具與支持來做好這件事。
💞結語
不要把科技妖魔化,也不要盲目信任它。AI是鏡子,而且是一面會說話的鏡子,它照出你需要什麼,也會放大你的偏見。
禁止不是解方,教育、設計與監管三管齊下才有機會。我們應該把更多精力放在如何把AI做成一個「幫助人類成長的工具」,而不是單純的慰藉器或利潤引擎。
家長、設計者、立法者、使用者都要上場。這不是只有工程師的問題,也不是只有心理師的問題,而是整個社會的課題。越來越多像Ruth Johnson、Eliza Humphreys這類專家給了我們警告,也提供了起點:把讓更多人看見風險,再把可行的防護措施放上檯面。




















