第一節 法律對影像真實性的依賴及其失效
在生成式人工智慧尚未普及之前,刑事法與證據法體系對於影像證據之採信,長期建立於一項基本認知:即影像能夠如實反映現實,具有高度的客觀性與可驗證性。此種認知使得影像資料在認定犯罪事實與歸責判斷中,長期被視為具高度證明力之工具。惟隨著深偽技術(Deepfakes)之快速發展,該項建基於「真實拍攝」前提的信賴結構正面臨前所未有的挑戰。
深偽影像的生成特性在於,其並非源於現實中實際發生之事件或動態,而是藉由演算法重構視覺訊息,產製出高度擬真的合成內容。此一技術性質,直接動搖了傳統法制將影像視為真實事證之依據,使現行規範在面對此類影像時,產生明顯的適用落差。特別是在犯罪構成要件、證據能力認定與受害人權益保障等面向,現行法制尚缺乏針對性之規範設計,亦難以回應生成式影像所引發的新型法律問題,進而在司法實務中造成重大解釋與應用困難。
一、傳統刑事法規對「實體真實性」之認定限制
從構成要件之設計觀之,現行多數針對不當影像散布所設立之刑事規範,特別是在非自願性影像或所謂「報復性色情」案件中,普遍假設影像內容需呈現被害人之真實身體,並由實際拍攝行為所產生。此種設計反應出傳統刑法規範以「具體物理侵害」為判斷基礎,並以「拍攝-被拍攝」之事實關係為構成核心。
首先,就構成要件語詞而言,相關法條常以「被拍攝者之私密部位」或「從事性行為之實際畫面」等語言進行界定,其保護法益明確指向被害人身體之真實呈現與性自主之保障。惟如 George(2024)所述,深偽技術實際上係將個人之臉部圖像與他人或虛構人物之身體進行合成,所產出內容雖具高擬真度,實則並無實際身體涉入。此種「合成性虛構」(synthetic falsity)特質,導致該類影像未必構成現行法所要求之「暴露真實身體」,使得相關行為無法納入原本之處罰範疇,進而形成規範上的斷裂。
其次,就定罪門檻的適用層面而言,深偽影像之生成通常脫離傳統「拍攝行為」的概念範疇,其內容係事後人工智慧模擬而成,並未實際發生任何被偷拍或被攝錄之行為。此與既有諸如「未經同意拍攝」或「非法錄影」之犯罪構成要件有所脫節。原本針對此類犯罪所設之法條,旨在保護被害人於「拍攝當下」之身體隱私與自主權,但若涉案影像並非源自真實拍攝,而是完全由生成模型所虛構,則行為人即可能不符合該犯罪類型之要件設計,導致法律適用產生困難,亦進一步削弱對此類行為的實質規範力。
二、證據法中「無聲證人」理論所面臨的技術衝擊
在證據法理上,影像證據之所以能在欠缺人證的情形下為法院所採信,長期係建立於「無聲證人理論」(Silent Witness Theory)之上。依此理論,只要能證明影像之生成、保存與呈現過程具備客觀可靠性,該影像本身即可作為獨立證據使用,而無須仰賴實際拍攝者或目擊者出庭作證。此一理論在傳統攝錄技術環境下,有助於提升證據蒐集之效率,並回應現代社會大量仰賴影像紀錄之實務需求。
然而,深偽技術的成熟,已對上述證據法理構成實質性挑戰。Maras 與 Alexandrou(2019)指出,傳統影像鑑識程序通常得以透過比對原始底片、RAW 檔案、拍攝裝置之中繼資料,或分析影像後製痕跡,以驗證其真實性與完整性。但在深偽生成的情境中,影像往往並不存在任何可追溯之「原始拍攝檔案」,且生成式 AI 技術更可刻意消除用以辨識後製行為的數位「足跡」(footprints),致使既有的鑑識與驗證方法喪失其判斷基礎。換言之,「無聲證人」之可信性前提,已難以在深偽影像面前維持。
更進一步而言,隨著深偽影像於視覺與聽覺層面達到近乎「不可區分」的擬真程度,其影響已不再侷限於個案中某一影像是否可採的問題,而是全面侵蝕數位影像作為證據之證明價值(probative value)。當司法體系對影像證據的整體信賴基礎開始動搖,裁判者在事實認定上所需承擔的認知負荷顯著提高,法官與陪審團亦更難以在「真實紀錄」與「高度擬真之虛構內容」之間作出明確區辨。此一情形不僅增加誤判風險,亦可能對審判結果之正當性與程序公正性造成結構性衝擊。
三、監管框架對技術演進的回應困境
從制度設計與治理實務的角度觀之,現行法律體系在面對深偽技術迅速演進與應用擴張時,顯現出明顯的調適遲滯與規範不足。Buckingham(2025)指出,當前多數關涉數位證據與網路治理的法制架構,對於「合成媒體」(synthetic media)仍未建立具體明確的規範標準。即便如歐盟已具備較完備的個資與隱私保護法制,例如《一般資料保護規則》(General Data Protection Regulation, GDPR),其立法原意亦非針對人工智慧生成或竄改影像設計,致使實務中在案件立案、舉證程序與裁罰依據上,均易出現標準不一、適用不確定的窒礙。
更進一步而言,在執法能力與人力資源配置方面,現階段無論是法律實務工作者或基層執法人員,普遍尚未接受有關深偽技術特性與應對策略的系統性訓練。由於深偽演算法之開發與應用具高度技術密度,其更新與擴散速度遠快於法律規範與制度回應的調整步伐,導致整體法制難以即時介入或有效因應。此一現象,實質上構成所謂「法律落後於技術」的典型案例,並已成為當前網路治理與數位正義實踐中所面臨的核心結構性挑戰。
第二節 跨境擴散與執法遲滯:深偽影像治理的制度挑戰
在深偽影像治理的實務運作中,即使部分法制已針對非自願性影像傳播、身份冒用等情形建立初步規範,實際執行仍面臨顯著落差。此一落差在全球性平台(如 Telegram)中更為明顯,深偽內容因平台治理鬆散、管轄權分歧與技術規避手段日益複雜,使得受害人舉證、申訴及下架程序往往無法及時發揮效果,進一步削弱法律規範的可執行性。
一、申訴程序的消極性與處理時效之不足
目前多數平台雖設有內容舉報與審查機制,實務上卻難以因應高頻、快速的深偽影像擴散情形。特別是對於採行「最低限度審查」策略的境外平台而言,內容審查標準鬆散與程序效率低落,均使得申訴效果大打折扣。
以 Telegram 為例,Almakaty(2025)指出,該平台採取去中心化設計,並強調保護使用者隱私,導致其對用戶內容的干預相對保守。研究指出,即使面對多次檢舉的違規內容,其平均移除時間仍長達 48 小時,而這對於傳播速度極快的深偽影像而言,通常已錯過干預的適當時機。
此外,Meyer 與 Polido(2023)分析指出,許多社群平台(如 X)之演算法設計偏好高互動性與煽動性內容,造成深偽影像獲得更大可見度與流量,平台亦因此缺乏動機積極處理用戶檢舉,使受害者權益難以有效伸張。
二、跨境執法與法制協調的結構性障礙
深偽影像因其具備快速跨境生成與傳播的特性,對現行以主權國家為基礎的執法架構造成深層挑戰。當前主要困難可歸納如下:
(一)跨國法域選擇與執法落差
實務上,加害者常刻意操作不同國家的法制差異,進行所謂的「跨國法域選擇」。此種策略包括:於監管較為寬鬆的國家託管伺服器、在他國進行深偽內容生成,並於第三地散播內容,使得執法機關難以準確定位加害者或資料儲存主體。Buckingham(2025)指出,許多內容創作者選擇在不受《一般資料保護規則》(GDPR)管轄範圍內的地區運作,導致歐盟國家的執法機關在進行資料保全、證據取得與跨境司法協助時,經常遭遇管轄權不明與程序障礙等問題。
(二)端對端加密架構下之執法限制
端對端加密(End-to-End Encryption, E2EE)技術雖有助於保障通訊隱私,卻亦造成執法機關與平台營運者無法存取通訊內容。根據 Scheffler 與 Mayer(2023),此類技術架構限制平台在傳輸過程中進行預防性偵測(如雜湊值比對)的能力,所有干預措施僅能仰賴用戶在接收後主動舉報,導致平台與執法端難以及時反應,嚴重影響侵權內容之即時控管。
(三)美國平台責任限制條款的制度性影響
在美國法體系中,《通訊規範法》第 230 條(Section 230 of the Communications Decency Act)規定,平台對其使用者所發表之內容享有一定程度的法律責任豁免。此一制度設計本意為促進言論自由與網路創新,但 George(2024)與 Kobriger 等人(2021)指出,在實務運作上卻經常被平台作為延遲或消極處理非法與侵權內容的理由,使受害者無法在第一時間獲得實質性救濟。
三、典型案例與重複性擴散的治理困境
深偽影像的散播呈現高度非線性與可重複擴散性,使其難以從平台上徹底移除,對受害者造成長期性之身心損害與社會排擠風險。
例如,Johnson(2025)研究指出,南韓 Telegram 平台曾出現所謂「羞辱聊天室」(Humiliation Rooms),系針對特定學校與社群,集中散播受害學生或其家屬之深偽影像。由於該類影像會透過多個頻道與群組轉傳、備份與再創作,使得單一來源之刪除無法阻止其在其他通道中再度出現,形成持續性與擴張性的傷害模式。
類似情形亦見於印度資深記者 Rana Ayyub 案例,其深偽影像透過 WhatsApp 與 X 平台反覆傳播,觸及量以萬計,George(2024)指出,即使受害人即時提出申訴,平台反應時間與法律介入之時效仍明顯落後,最終導致其遭受社會孤立與心理創傷。
此外,Roy 等人(2025)研究指出,Telegram 平台上的網路犯罪頻道即使遭關閉,仍可迅速引導用戶轉移至新頻道,其訂閱者遷移比率高達 43.8%。此類平台遷移與頻道備援機制進一步削弱傳統下架措施的效果,使得單一申訴行動無法達到實質移除之治理目的。
第三節 技術落差與辨識困境:深偽治理面臨的技術挑戰
當前網路治理體系在法律規範與平台執行力皆面臨限制的同時,生成式人工智慧技術所引發的深偽內容問題,更進一步凸顯出技術層面的治理瓶頸。特別是在「生成技術」與「辨識技術」之間,存在明顯的發展不對稱。辨識工具常需仰賴既有樣本進行訓練與校準,導致整體治理反應處於滯後狀態,難以及時因應生成技術之快速演進。
以下將從五項關鍵技術因素進行分析,說明此一落差如何削弱現行治理體系的實質效能:
一、辨識技術的反應性與被動性限制
當前主流深偽內容辨識技術,多建構於機器學習模型之上,需仰賴既有偽造樣本進行訓練與特徵擷取。此種技術機制在運作邏輯上本質上具備「後設性」(reactive nature),亦即辨識系統僅能在新型生成技術產出可辨識樣本後,方能進行有效學習與演算法調適。
然而,對於尚處於技術初期階段、尚未廣泛流通之新型造假工具,或針對特定平台演化而生之低頻變體(low-frequency variants),現行辨識技術常因缺乏足夠訓練資料,致使系統辨識能力受限,無法在第一時間內予以準確反應與處理。此種遞延式的學習機制,實質上造成一段辨識效能落後於生成技術的時差區間,進而限制整體治理體系在預防性應對上的即時性與前瞻性。
二、公開辨識工具所引發的治理矛盾
辨識模型的透明化雖有助於提升科研合作與公共治理能力,卻亦引發潛在的濫用風險。Leibowicz 等人(2021)指出,一旦辨識系統之參數與方法被公開,惡意行為者即可反向進行對抗訓練,使其生成模型避開現有辨識標準。此種迴避性生成行為將直接削弱原有技術防線,並降低辨識工具在實務操作上的準確性與穩定性。
三、生成架構進化所造成的鑑識困難
自生成對抗網路(Generative Adversarial Networks, GANs)發展至擴散模型(Diffusion Models)以來,深偽內容的視覺擬真程度已有顯著提升。傳統鑑識方法常依據如瞳孔對稱性、邊緣過渡模糊等技術特徵進行判斷,然而在新一代模型中,此類可辨識瑕疵已被大幅修正或消除,導致原有的鑑識機制面臨失效。辨識技術因而須持續重構其偵測指標與訓練參數,方能維持一定效能。
四、後製加工對技術辨識能力的干擾
深偽內容於生成後,若經過圖像編輯、濾鏡套用、畫質壓縮或多次格式轉換,其原始特徵資訊將被破壞或掩蔽,進一步降低辨識模型之準確性。Ghiurău 與 Popescu(2024)實證指出,AI 生成影像若未經加工,其辨識準確率可達 70%;但若經任一層級之人工處理後,辨識率則可能降至僅 25%。此一結果顯示,後製加工為偽造內容提供了額外的遮蔽效果,嚴重削弱現行偵測技術的有效性與可信度。
五、即時生成應用場景下之辨識限制
新興的即時生成技術(Real-Time Deepfakes, RTDFs)已廣泛應用於視訊詐騙、語音冒用等互動情境,其臨場性與低延遲特性對現有辨識技術構成重大挑戰。Mittal 等人(2024)指出,目前較具辨識效能之模型多採用高複雜度架構(如 3D-CNN 或 Transformer 系列),需大量運算資源與延時處理,難以部署於實時互動平台中。此一技術現實限制使得即時辨識無法有效落地,亦成為視訊詐騙擴張的結構性漏洞。
綜上可見,生成技術與辨識技術間之發展落差,不僅為單一技術層面的挑戰,更已成為妨礙數位治理效能與資訊信任機制建構的制度性風險。當前技術尚難以單獨承擔深偽內容篩選與防堵之責任,故治理思維應由「技術優先」轉向「制度整合」與「多層協作」。其中,包括法律規範明確化、平台責任制度設計、教育與數位素養提升等,皆為提升整體治理韌性的必要組成部分。
參考文獻
Almakaty, S. (2025). Case study: Cross-platform disinformation moderation strategies during the Russia-Ukraine conflict. Preprints.org. https://doi.org/10.20944/preprints202512.0091.v1
Buckingham, E. (2025). The challenges of deepfake technology on the decision-making processes within law enforcement – a study within the EU landscape [Master's dissertation, University of Malta]. L-Università ta' Malta Library - Electronic Thesis & Dissertations (ETD) Repository.
George, A. (2024). Defamation in the time of Deepfakes. Columbia Journal of Gender and Law, 45(1), 122–172.
Ghiurău, D., & Popescu, D. E. (2024). Distinguishing reality from AI: Approaches for detecting synthetic content. Computers, 14(1), Article 1. https://doi.org/10.3390/computers14010001
Johnson, V. M. (2025). Deepfake violence and the future of human rights: A South Korean case study [Master's thesis, Lund University].
Kobriger, K., Zhang, J., Quijano, A., & Guo, J. (2021). Out of our depth with deep fakes: How the law fails victims of deep fake nonconsensual pornography. Richmond Journal of Law & Technology, 28(2), 204–253.
Leibowicz, C. R., McGregor, S., & Ovadya, A. (2021). The deepfake detection dilemma: A multistakeholder exploration of adversarial dynamics in synthetic media. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, 644–652. https://doi.org/10.1145/3461702.3462584
Maras, M. H., & Alexandrou, A. (2019). Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof, 23(3), 255–262. https://doi.org/10.1177/1365712718807226
Meyer, E. P. N., & Polido, F. B. P. (2023). International law, constitutions, and electoral content moderation: Overcoming supranational failures through domestic solutions. Chicago Journal of International Law, 24(1), 95–114.
Mittal, G., Hegde, C., & Memon, N. (2024, July). GOTCHA: Real-time video deepfake detection via challenge-response. In 2024 IEEE 9th European Symposium on Security and Privacy (EuroS&P), 1–20.
Roy, S. S., Vafa, E. P., Khanmohamaddi, K., & Nilizadeh, S. (2025). DarkGram: A large-scale analysis of cybercriminal activity channels on Telegram. In Proceedings of the 34th USENIX Security Symposium. USENIX.
Scheffler, S., & Mayer, J. (2023). SoK: Content moderation for end-to-end encryption. Proceedings on Privacy Enhancing Technologies, 2023(2), 1–27. https://doi.org/10.56553/popets-2023-0060
Verma, A. (2025). Deepfakes and the crisis of digital authenticity: Ethical challenges in the age of synthetic media. Journal of Information, Communication and Ethics in Society. Advance online publication. https://doi.org/10.1108/JICES-04-2025-0083