
(附圖由 Gemini 生成)
曾「製作、散播,或威脅散播」AI 性化深偽影像的比例,
佔人口的 3.2%,以台灣 2300 萬人估算就是大約 74 萬人。
18% 的受訪者曾「刻意」觀看過性化的 AI 深偽影像,
以台灣 2300 萬人估算,18% 就代表超過 400 萬人。
這不是什麼偏差值,也不是「變態少數」,
而是具有代表性的人口調查,更是正發生在你周遭的現實。
權威期刊《Computers in Human Behavior》六月號正式刊出一份讓人坐立難安的研究。它的規模很大、數據很赤裸、結論很不舒服。但是台灣至今幾乎沒有任何媒體、研究單位、或政府機關認真回應它。這篇文章,就是要讓這份研究的重量,真的落在你的肩膀上。
註:《Computers in Human Behavior》由 Elsevier 出版,2024 年的影響因子(Impact factor)為 8.9,五年影響因子為 10.6,在「人機互動和網路心理學」領域內排名前 25%(Q1 區),屬於高水準的頂尖期刊。
💥 先說結論:數字比你想像的更嚇人
〈AI-generated image-based sexual abuse: Perpetration and consumption across three regions〉這份研究橫跨澳洲、英國、美國三個國家,對總計 7,231 名具代表性的成年受訪者進行大規模問卷調查,目的是釐清「AI生成非自願性影像」(也就是俗稱的「AI 深偽色情圖片與影片」,簡稱 AI-IBSA,AI-generated Image-Based Sexual Abuse)的盛行程度,包括:誰在製作、誰在散播、誰在威脅,以及誰在觀看。
結果發現,自述曾「製作、散播,或威脅散播」AI 性化深偽影像的比例,佔三國人口的 3.2%。這個數字聽起來不大,但是一旦換算成人口,就完全是另一回事了。以台灣 2300 萬人估算,3.2% 就代表大約 74 萬人。
更讓人咋舌的是另一個數字:18% 的受訪者表示,他們曾「刻意」觀看過性化的 AI 深偽影像。換算成人口,18% 就是大約每 6 個人裡有 1 個,以台灣 2300 萬人估算,18% 就代表超過 400 萬人。這不是什麼偏差值,也不是「變態少數」,而是具有代表性的人口調查,更是正發生在你周遭的現實。
而且以我過去兩三年來在 FB 最大的「AI 生成美女圖社團」發表上千篇貼文、進行大量實地觀察與「田野調查」的經驗,台灣的數字比起這篇研究中所統計的國外數字絕對高更多!
🔍 誰在做?誰在看?數字背後更殘酷的事實
光說「有多少人」還不夠,這份研究更進一步分析了哪些族群特別高風險:
- 男性的製作比例是女性的 3.9 倍。這雖然不令人意外,但是用真實數字呈現出來還是很讓人心驚。
- 35 歲以下的年輕族群比率顯著更高。這意味著這不是「老男人才有的問題」,恰恰相反,它正在年輕世代中快速蔓延。
- 少數族裔(BIPOC)以及身心障礙者,回報參與相關行為的比例也顯著高於其他族群。這個發現很複雜,背後可能涉及社會邊緣化、資訊落差、以及心理需求等多重因素,值得深入研究。
- 至於「觀看」這件事,調查中男女雙方最常見的理由都是「好奇心」。不是因為變態,不是因為有特殊癖好,而是因為「想知道是什麼」,這跟人類面對新奇事物的天性完全一致,也正因此才更值得警惕。
😑 台灣還在用 2010 年代的眼光看 2026 年的問題
我已經關注這個議題超過兩年,發表的相關文章數量更有數十篇,甚至登上世界知名心理學科普雜誌《Psychology Today》,也在台灣精神醫學年會發表過兩次演講。但是截至目前為止,台灣民眾與專家的整體回應依然讓我感到灰心。
不是沒人看,而是大部分人看完之後的反應,不是「我們接下來該怎麼辦?」,而是「反正這是少數變態的問題啦」,或是「太敏感了,碰了會惹麻煩」。
這份最新的跨三國大調查,正好可以當作一記當頭棒喝,打醒那些還以為這個議題只是「少數個案」的人。
18%!不是 0.18%,不是 1.8%,是 18%!
這是代表性人口樣本中,「刻意」觀看這類影像的比例。如果台灣的數字跟這三個英語系先進國家接近,那就意味著你公司裡可能有不少同事看過、你學校裡可能有不少同學試過、甚至你身邊的朋友圈裡,就有人製作或散播過這種影像,只是沒有人知道(因為他們不太可能公開說出來)。
⚠️ AI生成「深偽色情圖」到底是什麼,台灣人懂多少?
傳統意義上的「換臉A片」(Deepfake Porn),是把知名藝人、偶像的臉孔合成到色情照片影片裡。這已經存在好幾年了,大家對它多少有所耳聞。
但是現在的情況已經遠遠超越這個層次:只要取得一個人的幾張照片(從 FB、IG、Twitter 隨手都能下載,甚至是朋友分享 Line 訊息中的出遊合照),使用現在市面上大量 AI 工具(其中有許多是完全免費),就可以在幾分鐘之內,把那個人的臉換到各種裸體或性愛場景裡,生成幾乎以假亂真的圖片和影片。
更重要的是,這「不需要」任何技術背景,使用門檻已經低到讓人不敢相信的程度。2022 年以前,製作這樣的影像至少還要懂一點程式碼或修圖技術,2024 年之後,大量新工具讓這件事變成「輸入幾個字、按下按鈕、產出結果」。
研究機構 IWF(Internet Watch Foundation)追蹤的數據顯示,AI 生成的兒少性剝削影像在 2024 年比前一年暴增 380%。而針對成年人的非自願深偽色情影像,早已充斥各種平台,數量更是難以計算。
更可怕的是:受害者往往根本不知道自己已經「被拍了」。
😤 「只是圖片而已,又沒有真的發生什麼事」─ 這是最危險的誤解
每次我談到這個議題,總會有人說:「只是虛擬的,又沒有真正傷害到對方,有什麼好緊張的?」
這個說法,是目前這個社會面對 AI 深偽性化影像最普遍、也最有害的誤解。
首先,受害者的心理創傷是真實的。多項研究顯示,發現自己的臉孔被合成進色情影像的受害者,會出現創傷後壓力症狀(PTSD)、嚴重焦慮、社交退縮,甚至自殺傾向。傷害的程度和在真實生活中被偷拍、被非法散布真實影像的受害者,並沒有多大差別。
其次,影像的散布幾乎不可逆轉。一旦這類影像出現在網路上,幾乎沒有任何可靠的方式能夠「完全清除」它。它可已輕易被複製到各種平台、暗網論壇、私人聊天群組,繼續在受害者不知情的情況下流傳。
第三,「不散布就沒事」的邏輯已經過時了。研究顯示,單純的製作行為本身,就足以改變製作者對受害者的認知,強化物化思維,進而影響與對方之間的實際互動。換句話說,就算那張圖只存在製作者的手機裡、從來沒有傳出去,受害者依然「受害了」。
還有一個更少被討論的問題:「規範性外部性」(Normative Spillover)。當製作、觀看這類影像成為很多人私下進行的行為,社會整體對「可接受的性幻想範圍」的認知就會慢慢改變,進而對現實世界中的性騷擾判斷標準、職場文化、人際關係帶來系統性衝擊。換句話說,個人的「私下行為」,其實會累積成「集體的文化轉變」。

📊 「好奇心使然」— 最值得深思的調查發現
這份研究有一個細節讓我特別在意:觀看性化深偽影像的最常見理由,不管男女都是「好奇心」。
這個發現非常重要,因為它說明了一件事:很多人不是帶著惡意去搜尋、觀看這類內容的。他們只是「想知道 AI 現在到底厲害到什麼程度」、「想看看這是真的還是假的」、「想知道那個人被合成之後看起來是怎麼樣」。這跟我自己三年多來觀察 AI 生成美女圖社群時看到的現象,幾乎完全吻合。
人類對新奇事物的好奇心是強大的動力,「管控需求」這件事,遠遠比「消除需求」更複雜、也更有現實可行性。這意味著面對AI深偽色情影像的蔓延,單純靠「禁止」和「重刑」是不夠的。在法律規範之外,我們更需要的是教育、素養提升、以及社會討論。
換句話說,這不只是法律問題,更是教育問題、文化問題。
🤷 台灣到底有沒有在處理這件事?
坦白說,現況讓人憂心忡忡。台灣目前對「AI 生成的深偽色情影像」既無專門法規,相關討論也幾近空白。立法院連「AI 基本法」草案都還沒完成,更別說要針對這個議題進行細緻的法律討論。
研究單位呢?關注者寥寥無幾。根本沒有台灣本土的盛行率調查,我們連有多少人在做、多少人在看都不知道。
媒體呢?偶爾有幾篇獵奇式的報導,但從未形成持續、深入的公共討論。
專家呢?我碰過的多數反應要不是沒興趣,要不就是「這議題太敏感,不想惹麻煩。」
但是「敏感」從來都不是逃避問題的藉口。這份最新的研究,是目前針對這個議題規模最大、設計最嚴謹的跨國調查之一。它的結論已經相當清楚:這不是少數偏差行為,而是正在普遍發生的社會現象。澳洲、英國、美國三個高度發展的民主國家都已經有 3.2% 的人口從事相關行為,台灣有任何理由相信自己的情況更好嗎?
🧭 不是要你恐慌,而是要你行動
我一直以來的核心立場都是:解決問題的關鍵不是限制或禁止,而是「疏導與減害」;不是非黑即白的二元對立,而是灰階思維下的程度與範圍管理。
對政府而言,現在應該做的至少包括:
- 確認現行法律是否涵蓋 AI 生成非自願性影像,研擬明確的法律框架,同時推動平台業者的透明度義務,要求告知使用者 AI 生成內容的相關風險。
- 對教育單位與媒體而言,應該停止迴避這個話題。性教育不只是教避孕和疾病,更要教「數位時代的性與尊嚴」。讓年輕人知道:製作這樣的影像是有後果的,受害者的創傷是真實的,「只是圖片而已」這個說法是徹頭徹尾的謊言。
- 對研究者而言,是時候進行台灣本土的盛行率調查與進一步的深入研究了。我們不能永遠靠借用西方數據來推估台灣的狀況,尤其是在台灣的文化脈絡(對性更保守卻又高度數位化)可能讓問題更為複雜的情況下。
- 對每一個個人而言,至少要做到這兩件事:第一,不要主動搜尋、觀看、或散布任何你懷疑是非自願深偽影像的內容;第二,如果發現有人這樣做,不要當沉默的旁觀者。
📌 結語:問題已經到了,我們還在哪裡?
UNICEF 在 2026 年 2 月的最新聲明指出,在橫跨 11 個國家的調查中,至少有 120 萬名兒童的影像,在過去一年裡被 AI 工具製作成性化深偽內容。在某些國家中,數字是「每 25 個兒童就有 1 個」。這不是未來的假設場景,而是當下正在發生的現實。
這份《Computers in Human Behavior》的最新研究,更給了我們另一個角度的現實:成年人的世界裡,非自願 AI 性化影像的製作與觀看,已經達到不可忽視的規模。
我這兩年多來反覆說的話,今天還是要再說一次:問題已經迫在眉睫了,我們打算怎麼辦?
台灣民眾不能再用「反正這是少數變態才會做的事」來自我安慰,台灣專家不能再用「議題太複雜太敏感」來迴避責任,台灣政府不能繼續假裝這個問題不存在、等到「亡羊補牢」都做不到時才想起來開會討論。






















