- 本篇係自臉書貼文編輯版本
德國各大學近年來針對使用AI (德文:KI)撰寫申請入學報告、大學書面作業或報告、學位論文,逐漸建立並加強審查密度,另外有些大學也開始使用反AI檢查工具,因此各地都有行政訴訟進行中。
在此分析德國Kassel行政法院(VG Kassel) 近日連續兩則判決 (Urt. v. 25.02.2026, Az. 7 K 2134/24.KS; 7 K 2515/25.KS),對於使用AI,可能構成特別嚴重的欺罔行為(besonders schwere Täuschung)的審查判準。
德國Kassel行政法院(VG Kassel) 近日關於學期報告/學位論文使用AI之兩則判決 (Urt. v. 25.02.2026, Az. 7 K 2134/24.KS; 7 K 2515/25.KS)
整體結論先講:
VG Kassel認為,在學術工作中,使用 AI 進行資料整理並進而生成文本,與單純使用檢索工具如Google檢索資料,並不能畫上等號。法院駁回了兩名學生對大學提起的訴訟。
只要在使用 AI 撰寫學術文本時未加註明,本身就已構成違反學術倫理。其中一案中,法院甚至進一步審查原告在其學士論文主題上的「書面知識呈現與口頭知識呈現之間存在落差(Diskrepanz)」。
此外,法院判決也一般性指出了幾項指標,用以辨識考試中是否使用了 AI。
最有意思的是,例如:「對中性專業內容頻繁使用、且過度重複出現的正面評價性表述」、「反覆出現的總結性句子」,是法院認為 AI 生成文本的典型特徵。此外,子虛烏有的「虛構判決」、「虛構引註」等也都是AI生成的重要判準。
(又分成外觀與內容上的文本指標,以及考生整體行為與程序背景指標。這些特徵我覺得很有意思,也是精華!詳細整理列在下文。)
當構成這些AI指標後,法院進一步承認可藉由 Anscheinsbeweis(表見證明) 來認定AI欺罔。
不過必須注意的是,判決中所提到的欺罔,主要是針對生成式AI (generative KI)的生成功能;
相對於AI生成而言,如果是單純透過 AI 進行拼字或文法檢查與編修,而不涉及學術核心之論點形成(未介入內容形成、論證展開、資料蒐集與結構鋪陳),通常尚不構成欺罔行為。
由於這兩則判決具有高度參考與啟發性,因此針對兩則判決的重要內容整理如下:
([按]的內容則為個人意見補充)
一、VG Kassel 對於使用 AI(KI)之學術倫理與考試法標準
(一)核心出發點:學術作業不只看結果,也看形成過程
評價重點不只在最後交出的文字結果,也在於學生是否自行完成通往該結果的研究、理解、分析、整理與表述過程。
因此,法院明確指出:
Hausarbeit(學期作業報告)或論文,不只是交出一份看起來正確的文字成果。學術創作之「路徑」本身也是審查與檢驗之對象。
若學生將形成論述、蒐集與整理內容、甚至表述結構的重要部分交由生成式AI (generative KI) 完成,而未加標示,便不是獨立完成。
這也是法院為何認為 AI 使用不能和 Google 檢索相提並論的根本理由。
(二)VG Kassel 區分搜索引擎如Google 檢索 vs. 生成式AI
搜索引擎如Google 檢索仍需自己找資料、自己篩選、自己理解、自己轉化。找到的來源必須自行引用。使用者仍保有自主的選材、評價與表述過程。
但是生成式AI是直接生成內容、語句、論述或結構。使用者往往不再進行真正獨立的「Aus- und Verwertung」,也就是自主的資料分析與再加工。
若未標示AI的介入,讀者會誤以為這些內容是作者本人獨立形成。因此,這不只是「工具輔助」,而是可能構成未揭露的外來協助(unerlaubte fremde Hilfe)。
法院因此認為使用生成式AI生成文本內容,法律評價上更接近未經標示地利用他人智慧成果,而非單純搜尋資料。
(三)VG Kassel 對學術論文/報告「欺罔(Täuschung)」的判準
法院認為,考生若假裝自己提交的是自主、正常完成的考試成果,但實際上卻利用未被允許且未被揭露的外來協助,即構成 Täuschung。
這個標準在AI脈絡下具體化為:
若使用生成式AI來生成內容、段落、論述、分析、程式碼說明等,而未明確標示這些內容是由 AI 產生或經 AI 大幅改寫,即屬於對「自主完成」之外觀的虛偽呈現,因而構成 Täuschung。
即便考試規則( Prüfungsordnung) 沒有明文「禁止 AI」,也不代表未標示使用生成式AI就是允許的。因為Prüfungsordnung 原本就禁止未許可的「外來協助」(fremde Hilfe);「外來協助」不必限於人工, AI 介入形成文本內容,實質上就是外來協助。
(四)一次未標示使用就可能違反倫理界線
兩案中最重要、也最關鍵的判斷是:
只要一次未標示地使用生成式AI,就可能已經跨越「不再屬於自主完成」的界線。
與傳統意義的Plagiat(剽竊/抄襲)不同,使用生成式AI不是「不小心漏引註」那種過失型態。因為每一次要求AI生成內容,都是一個主動且有意識的決定。之後將AI生成的內容貼到作業或報告中,也是主動決定。
因此,未標示使用生成式AI,原則上不是偶然的過失,而是有意識地把外來生成內容納入自己的考試成果中。
這也是法院與傳統抄襲法理稍作區分之處。對於傳統抄襲,常還要討論抄襲比例、段落重要性、量的多寡。但對於生成式 AI,法院認為其性質不同,一次未標示使用即具有欺罔性。
(五)例外:不涉及生成的AI使用通常還不構成欺罔
必須注意的是,VG Kassel 並不是把所有AI使用都一概視為違規。法院保留了一個相對狹窄的原則上仍可容許的情形範圍:包含單純拼字檢查、單純文法檢查、類似 Word 內建校正功能的形式性修正。
若AI只是像Rechtschreibprüfung那樣,協助校正或審查作者所創作出來的文字或文法錯誤,而未介入內容形成、論證展開、資料蒐集與結構鋪陳,通常還不至於構成 Täuschung。
但例外:若考試本身考的就是語言、拼寫、文體架構能力,那麼即使只是形式校正,也有考試法上作弊的問題。
(六)大學可以自行制定更寬或更明確的規範
不過大學不是不能允許 AI,Prüfungsordnungen完全可以明文規定,在何種條件下使用AI是被允許的;若大學明文容許,法律評價就會不同,甚至可能回到比較接近傳統引用與標示義務的判斷架構。
換言之,法院並沒有說所謂學術倫理就是「永遠不許用AI協助」,而是在說:在大學沒有明確容許規則,且學生又未標示AI使用的前提下,生成式AI足以構成 unerlaubte fremde Hilfe。
[按:目前德國諸多大學已經要求提交報告/論文時提出使用AI以及使用範圍的聲明。如果沒有清晰標示,就很可能會構成欺罔。
另外如果是學位論文,則如果嚴格遵守指導協議(許多校系都有指導協議範本),例如工作期間定時報告與繳交草稿給教授,並且與教授有諸多實質論點的探討,那麼AI使用的範疇通常取決於指導教授的意見。不過最後提交時仍然必須在AI聲明中說明是否有使用AI協助以及協助範圍。]
二、VG Kassel 對於判讀或辨識作業/論文為 AI 生成的標準
兩案合起來看,VG Kassel 的辨識標準分成兩類:
一類是外觀與內容上的文本指標,另一類是考生整體行為與程序背景指標。
(一)文本內容層面的指標
1. KI-typische sprachliche Auffälligkeiten
法院認為,下列特徵可作為 AI 生成文本的特徵:
(1)對中性專業內容使用過多正面評價性語言,例如反覆出現"wichtig"、"wertvoll"、"hilfreich"等,但卻沒有出現這些評價的論證理由;
(2)同義或近義內容反覆重述;
(3)不斷做空泛總結,卻沒有新的分析推進;
(4)表面正確,但內容空泛、抽象、缺乏深入論證;
(5)看似學術,實則停留在高密度套話與概括話語;
(6)對核心問題缺乏具體展開與精確分析;
(7)文字生成呈現泛泛化、一般化的特徵,即任何題目似乎都可套用的中性說法。
(按:以上內容就是我時常強調的,在社會與法律學領域涉及高度利益衡量的問題與價值權衡時,AI無法取代人力的原因!)
2. 缺乏真正的 wissenschaftliche Stringenz
(1)文章雖空用學術外表,但邏輯線不夠緊密
(2)論證沒有真正推進
(3)核心發現沒有被清楚地寫出來
(4)結論只說「獲得了重要Erkenntnisse (發現)」,但通篇卻看不出究竟是什麼 Erkenntnisse。
(按:從以上這些標準來看,論證推進與發現終究是AI無法取代的)
3. 外觀正確但主題偏離
以下是法院又進一步點出的AI典型問題:
會列出一些各自看似正確的資訊點,但這些點與真正題目之間缺乏緊密連結,出現「講了很多,但沒有真的在回答題目」的現象。
(按:簡單來講就是:通篇廢話。)
4. 不可驗證或虛構來源
AI的「虛構」問題,在第二案中特別明顯的被發現:
註腳只有判決名稱,沒有必要書目資訊;
引用的判決根本不存在。
也就是所謂的Halluzinationen der KI (AI的幻想)被作者未經查證地納入文本。
這在實務上最為重要的辨識指標之一。
(二)表現落差與程序行為層面的指標
1. 書面表現與口試/論文答辯之間的明顯落差
第一案(資訊工程學士)最重要的判準就是:
書面文本顯示高度完成度;但學生在口試或答辯中,卻連自己作業中的基本概念、方法、術語、程式碼基礎都無法說明;這種明顯落差可以成為 Anscheinsbeweis(表見證明)的基礎。
典型情況包括:
(1)無法解釋自己論文中的核心概念;
(2)無法說明自己聲稱使用的方法;
(3)無法解釋自己提交的 code;
(4)甚至對投影片上列出的公式也答不出來。
2. Bearbeitungsprozess(寫作過程) 與成果之間的不相稱
學生在寫作過程中一開始表現出明顯理解困難,卻又異常快速地產出接近完整的成品,而且之後內容幾乎不再修改。
這種「前期不懂,後期突然完整產出」的時間軸,也被法院視為重要可疑因素。
3. Nachtatverhalten(事後行為)也可以作為指標。
包括:事後解釋反覆變動、對關鍵問題給出彼此矛盾的說法;對明明是核心問題,仍持續顯示缺乏理解;在程序中出現保護性說辭(Schutzbehauptungen)。
4. 自認使用 AI,且未充分檢查
第二案中(也就是虛構判決文獻的案例),學生自己承認用 Copilot 檢查自己寫的段落、採納了AI的修改建議、用AI找判決,但是卻未充分檢查其結果。
在這種情況下,就算學生主觀上認為自己「只是使用AI輔助」,只要實際上採納了AI生成內容,且未標示,就可能構成 Täuschung。
(三)Anscheinsbeweis表見證明的意義
在第一案中,VG Kassel 特別承認:
大學可以用 Anscheinsbeweis 表見證明來證明AI欺罔。
也就是說,不必抓到學生明確輸入了哪一個 prompt,或拿到完整聊天紀錄,仍可能成立。只要整體情況符合典型經驗法則,例如:
1.書面與口頭落差極大;
2.文本具有AI典型語言特徵;
3.寫作過程與成果之間存在不自然跳躍;
4.事後說詞自相矛盾。
在以上情況下,法院即傾向認為:依一般經驗,最合理的解釋就是作業並非自主完成。
但法院同時也說,若學生能提出可信、具體且足以顛覆這種典型外觀的另一套解釋,則 Anscheinsbeweis 也可能被推翻。不過,如果只是空泛否認是不夠的。
三、兩則案例重點整理
(由於判決內容很長,我這邊不是法學論文,所以以下為筆記式的重點摘要)
(一)7 K 2134/24.KS Bachelorarbeit(資訊學學士論文)案
1. 事實摘要
原告是 Informatik Bachelor 學生。題目是"Vergleich unterschiedlicher Bewertungskriterien für Zeitreihen"。
在寫作過程中,曾先提交接近完成的英文版內容,後來改成德文版本。
指導過程中曾出現理解困難,寫作期限也延長。
口試/答辯時,對自己論文中的核心概念、方法與程式碼無法作出基本說明。
2. 爭點
大學是否可認定其使用 AI 或其他不允許的外來協助?
是否可依據書面與口頭落差等間接事實,透過 Anscheinsbeweis 認定 Täuschung?
是否屬於 besonders schwere Täuschung,並可排除重考?
3. 判決結論
法院支持大學,認定:
存在AI或至少非自主完成的高度外觀證據;
可透過 Anscheinsbeweis 認定 Täuschung;
部分使用生成式AI而未標示,也已足夠;
本案屬 besonders schwere Täuschung;
排除重考合法。
4. 判決理由重點
AI 欺罔可用表見證明認定。
辨識重點不只看文本本身,也看:口試表現、寫作過程、事後解釋。
「質」或「量」任一面特別突出,都有可能構成特別嚴重欺罔,不必兩者都極端。
5. 本案中的AI典型辨識指標
書面作業看似完成度高,但問題在於:
口頭卻無法解釋以下問題:instanz-/framebasiert 與 eventbasiert 的差異、Mean Squared Error 的公式與意義、Train-/Testdaten、自己程式碼的功能與結構…。
文本中有大量 AI 式語言;
文本論證浮泛、總結空洞;
寫作過程呈現不自然跳躍。
(二)7 K 2515/25.KS Master-Hausarbeit(Öffentliches Management / Verwaltungsrecht)(公共管理碩士行政法學期報告)案重點
1. 事實摘要
原告是公共管理碩士學生。在 Verwaltungsrecht (行政法)中提交 Hausarbeit(學期作業/報告)。
附有自我聲明:「保證自己獨立完成且未使用外來協助」。
結果卻被教授發現:
文本結構混亂;
很多段落像 AI 文本;
註腳只列判決,缺乏必要引註資訊;
許多引用的判決甚至根本不存在(!)
學生之後自己也承認:使用 Copilot 檢查段落、大致採納AI建議、也用 AI尋找相應判決、沒有充分檢查AI(虛構的)結果。
2. 爭點
生成式AI是否屬於 fremde Hilfe?
若 Prüfungsordnung 沒有明文禁止 AI,未標示使用 AI 是否仍可構成 Täuschung?
排除重考是否合法?
3. 判決結論
法院支持大學認定:
AI雖不是「人」,但其生成內容仍屬外來協助;
生成式AI不等於 Google等搜索引擎;
單次未標示使用生成式AI可跨越「不再獨立完成」之界線;
學生的作法構成 Täuschung;
因其附有 Selbständigkeitserklärung,且使用AI範圍廣、影響重,屬 besonders schwere Täuschung;
排除重考合法。
4. 判決理由重點
即使 Prüfungsordnung 沒有明文 AI 禁令,也不代表可未標示使用 AI;
一次未標示使用生成式AI就可能已足夠;
AI 生成內容被納入作業,本質上不是單純輔助,而可能是破壞自主完成性的外來協助。
5. 本案中的典型AI辨識指標
AI 生成式語言風格;
diffuse Aufbau;
重複與空泛敘述;
大量虛構判決與不可驗證引註;
原告自己承認採納 Copilot 的內容建議;
AI 使用超出形式拼字修正範圍。
























