生成式人工智慧的普及,讓影像製作進入民主化時代。操作門檻的降低固然促進創作,但也帶來濫用風險。Deepfake 即是其中代表性技術,透過 AI 合成他人臉部與聲音,生成高度擬真的虛假影像,廣泛應用於性別暴力與數位詐騙,對現行治理體系構成重大挑戰。
一、AI 技術民主化與操作門檻的變革
生成式人工智慧(如 Stable Diffusion、Midjourney)技術的迅速普及,標誌著擬真影像製作領域正經歷一場由「專業導向」向民主化(Democratization)與去專業化的重大轉型(Umbach et al., 2024;Bansal et al., 2024)。過去需仰賴高昂成本、具備好萊塢等級特效能力與大量製作時間的擬真內容,如今可由一般大眾透過簡單操作輕易完成(James, 2025;Arslan, 2023)。促成此一轉變的關鍵因素可歸納為下列三項:
(一)操作邏輯的根本改變
相較於傳統影像製作需仰賴高度技術操作,現代生成式模型僅需輸入文字提示詞(text prompt),即可自動產出高度擬真的視覺或影音內容(Hristov, 2025)。James(2025)進一步指出,許多平台已提供「一鍵生成」功能,使用者僅需點擊,即可快速產出多樣化的創意設計,這樣的操作被形容為「簡單到令人害怕」。
(二)技術架構的自動化學習
擬真內容品質的大幅提升,主要來自生成對抗網路(GANs)等技術的應用。GANs 透過「生成器」與「辨識器」的對抗訓練機制,使模型得以自我進化與優化,產生連肉眼亦難以判別真偽的內容(Arslan, 2023;Bansal et al., 2024)。
(三)針對性應用的發展與工具可近性提高
眾多 AI 工具已針對特定任務模組化開發,進一步降低使用門檻。例如,「Nudify」應用程式可自動辨識並替換影像中的服裝,使用者不需任何設計背景即可操作(Flynn et al., 2025)。此外,開源模型的快速擴散,也使這類技術從原先專屬於大型科技企業的資源,轉變為任何擁有電腦與網路的使用者皆可自由運用(James, 2025;Li et al., 2025)。
然而,這場以技術民主化為目標的轉變,也伴隨著不容忽視的負面外部性。當高度擬真的影像生成門檻不斷降低,這些工具逐漸被應用於原設計目的之外的場景,開始出現以欺騙、操控甚至暴力為目的的濫用情形。
在此脈絡下,Deepfake 技術應運而生,成為生成式 AI 民主化後最具代表性的濫用型態。所謂 Deepfake,係指利用人工智慧(特別是生成對抗網路,GANs),將某個人的臉部、聲音或動作擬真地合成至他人影像中,以製造極度逼真的虛假內容。這類技術廣泛用於影音篡改,且往往難以以肉眼辨識真偽,對資訊真實性與個人權益造成高度威脅。
因此,Deepfake 並非單純的影像技術進步,更是數位自由與數位風險交錯下的產物。當其應用從創意工具轉向惡意用途,尤其在性別暴力與數位詐騙等領域,已明顯展現出跨領域、混合型的犯罪特徵。
二、性別暴力與數位防詐的惡意合流
隨著 Deepfake 技術進化,其濫用情形已在性別暴力與數位防詐兩大領域中產生實質合流,並發展為具混合型態的新型數位犯罪。Li 等人(2025)指出,這類犯罪結合「身分竊取」作為手段、「性影像」作為工具,並以「經濟勒索或心理控制」為目的,構成同時侵害自主性與經濟權益的複合型傷害,對現行法律與治理體系形成系統性挑戰。此一合流現象主要透過以下三種路徑展現:
(一)「性勒索」(Sextortion)的興起
犯罪者透過 AI 技術將受害者臉部合成至色情影像之中,屬於性別暴力的數位化表現。隨後,再藉此影像威脅受害者支付金錢,以避免內容曝光,形成典型的數位詐騙案例(Flynn et al., 2025;Umbach et al., 2024)。此類行為經常利用社會對女性性表現的污名化,使受害者因擔憂名譽受損而屈從於經濟勒索(Flynn et al., 2025)。
(二)擬真身分冒用的強化
Deepfake 技術顯著提升冒用他人身分的可信度。犯罪者可精確模仿特定人物的聲音與臉部特徵,建立虛假身分或在視訊通話中偽冒權威人士,例如 CFO 詐騙案即為代表性案例(Hristov, 2025;Schmitt & Flechais, 2024)。
(三)受害風險與責任分配的失衡
根據社會技術失效模型(socio-technical failure model),上述行為均屬於惡意使用(malicious use)範疇(Li et al., 2025)。研究顯示,Deepfake 犯罪常造成自主性、心理與經濟損害的同時發生,且絕大多數風險由未直接參與 AI 工具操作的第三方受害者(non-interacting stakeholders)承擔,導致現有問責體系面臨崩潰風險(Li et al., 2025)。
三、網路治理的法律與技術困境
面對 Deepfake 技術所引發的新型犯罪模式,現行法律與技術治理架構顯現出多重落差與制度性瓶頸:
(一)法律定義模糊
多數國家的法律對於「攝影影像」仍多限於實體拍攝產出,對於完全由 AI 生成的虛擬內容,缺乏清晰的法律定義與適用依據(Kira, 2024)。
(二)跨境執法困難
深偽影像常透過 Telegram、X(前 Twitter)等具加密性或位於境外的社群平台迅速擴散,導致執法機關在識別匿名加害者與即時下架內容方面遭遇實質挑戰(Kira, 2024)。
(三)辨識技術的更新落差
雖然現行已有偵測模型協助識別深偽內容,但生成技術演進快速,使得辨識技術經常「追不上」造假方法。Arslan(2023)與 Hristov(2025)指出,人類感官已難以辨識生成內容的真偽,進一步提升治理難度。
四、邁向數位韌性的多方治理策略
在 Deepfake 技術所造成的跨領域威脅下,單靠法律處罰顯然無法完全遏止相關行為。未來需建構以「法律規範、技術偵測、平台自律、公民素養」為核心的四位一體治理架構(Kira, 2024),方能提升整體社會的數位韌性。
其中,平台業者應自產品設計階段即納入「安全設計」(safety by design)概念,預防違規內容的生成與擴散(Umbach et al., 2024)。同時,政府可考慮推動透明度標示、內容來源驗證(如 C2PA 標準)等技術制度,結合民間社群、教育機構與中介組織的參與,共同建立防禦性、回應性與預警性的多元治理體系,以因應深偽技術所帶來的快速變化與潛在風險。
參考文獻
Arslan, F. (2023). Deepfake technology: A criminological literature review. Sakarya Üniversitesi Hukuk Fakültesi Dergisi, 11(1), 701–720. https://doi.org/10.56701/shd.12936421
Bansal, G., Nawal, A., Chamola, V., & Herencsar, N. (2024). Revolutionizing visuals: The role of generative AI in modern image generation. ACM Transactions on Multimedia Computing, Communications, and Applications, 20(11), Article 356, 1–22. https://doi.org/10.1145/36896412
Blauth, T. F., Gstrein, O. J., & Zwitter, A. (2022). Artificial intelligence crime: An overview of malicious use and abuse of AI. IEEE Access, 10, 77342–77359. https://doi.org/10.1109/ACCESS.2022.31917903
Botero Arcila, B. (2024). AI liability in Europe: How does it complement risk regulation and deal with the problem of human oversight? Computer Law & Security Review, 54, Article 106012. https://doi.org/10.1016/j.clsr.2024.106012 [AI-liability-in-Europe]
Buckley, G., Caulfield, T., & Becker, I. (2024). How might the GDPR evolve? A question of politics, pace and punishment. Computer Law & Security Review, 54, Article 106033. https://doi.org/10.1016/j.clsr.2024.106033 [How-might-the-GDPR-evolve]
Falduti, M., & Tessaris, S. (2023). Mapping the interdisciplinary research on non-consensual pornography: Technical and quantitative perspectives. Digital Threats: Research and Practice, 4(3), Article 44, 1–22. https://doi.org/10.1145/36084834
Flynn, A., Powell, A., Eaton, A., & Scott, A. J. (2025). Sexualized deepfake abuse: Perpetrator and victim perspectives on the motivations and forms of non-consensually created and shared sexualized deepfake imagery. Journal of Interpersonal Violence, 1–35. https://doi.org/10.1177/088626052513688345
Guerrero-Sierra, H. F., Palacio Puerta, M., & Garavito Rincón, D. F. (2025). Threats and regulatory challenges of non-consensual pornographic deepfakes: An analysis of the Colombian case. Cogent Social Sciences, 11(1), Article 2552342. https://doi.org/10.1080/23311886.2025.25523426
Hristov, G. (2025). Genuine harms behind artificial content: How EU regulation can combat malicious use of deep fake technology [Master's thesis, Tilburg University]. Tilburg Institute for Law, Technology and Society.7
James, T. P. (2025). Not her fault: AI deepfakes, nonconsensual pornography, and federal law’s current failure to protect victims. BYU Law Review, 50(4), 1159–1190. https://digitalcommons.law.byu.edu/lawreview/vol50/iss4/108
Kira, B. (2024). When non-consensual intimate deepfakes go viral: The insufficiency of the UK Online Safety Act. Computer Law & Security Review, 54, Article 106024. https://doi.org/10.1016/j.clsr.2024.106024 [When-non-consensual-intimate-deepfakes]
Li, M., Bickersteth, W., Tang, N., Cranor, L., Hong, J., Shen, H., & Heidari, H. (2025). A closer look at the existing risks of generative AI: Mapping the who, what, and how of real-world incidents. Proceedings of the Eighth AAAI/ACM Conference on AI, Ethics, and Society (AIES 2025), 1561–1573. https://doi.org/10.7910/DVN/NISSFZ9
Li, W., & Chen, J. (2024). From Brussels effect to gravity assists: Understanding the evolution of the GDPR-inspired personal information protection law in China. Computer Law & Security Review, 54, Article 105994. https://doi.org/10.1016/j.clsr.2024.105994 [From-brussels-effect]
Schmitt, M., & Flechais, I. (2024). Digital deception: Generative artificial intelligence in social engineering and phishing. Artificial Intelligence Review, 57, Article 324. https://doi.org/10.1007/s10462-024-10973-210
Treleaven, P., Barnett, J., Brown, D., Bud, A., Fenoglio, E., Kerrigan, C., & Schoernig, M. (2023). The future of cybercrime: AI and emerging technologies are creating a cybercrime tsunami. Social Science Research Network (SSRN). https://doi.org/10.2139/ssrn.450724411
Umbach, R., Henry, N., Beard, G. F., & Berryessa, C. M. (2024). Non-consensual synthetic intimate imagery: Prevalence, attitudes, and knowledge in 10 countries. Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI ’24), Article 382, 1–20. https://doi.org/10.1145/3613904.364238212
Yavuz, C. (2024). Criminalisation of the dissemination of non-consensual sexual deepfakes in the European Union: A comparative legal analysis. Revue Internationale de Droit Pénal (RIDP), 95(2), 419–457.