建佑律師_NoMoreLaw的沙龍
avatar-avatar
建佑律師_NoMoreLaw
更新 發佈閱讀 5 分鐘
src
src
src
src

我大約在兩年前到中興大學TED演講,題目是:AI判官行不行?

當時在說明世界與台灣法官在應用生成式AI的實務情況,以及法源依據。

兩年過去了,世界各地陸續出現實證研究報告,就可以來延續之前這個類似的話題,並回頭來看看可對台灣有何啟示。

 

《法官使用生成式AI:實踐經驗與啟示》

報告資訊: AI Policy Consortium for Law & Courts(NCSC × Thomson Reuters Institute)|2026年3月

 

一、研究背景與目的

本報告係「法律與法院AI政策聯盟」治理與倫理工作小組主導,於2025年10月至11月間對美國10個州的13位現任法官進行一對一深度訪談(涵蓋最高法院大法官、上訴法院、一審及專業法院)。


研究動機在於:市場上針對企業與律師的AI調查已汗牛充棟,但以「法官本身」為研究對象的實證資料卻極為匱乏。

 

二、主要發現

(一)法官如何使用GenAI?

受訪法官普遍以「法律實習生」比喻GenAI——只在已掌握大方向的前提下,才交由AI處理輔助性工作,並嚴格覆核。


實際使用場景集中於低風險、高重複性工作:

•大量訴狀與卷宗的摘要整理(並自動生成有出處引用的時間軸)


•確定裁判結論後,協助草擬特定段落初稿(如法律標準說明)


•規劃CLE課程、演講稿、法院行政文書


•快速梳理特定法律問題的既有見解(事後必須自行驗證引用來源)


所有受訪法官一致表示:「裁判什麼」的核心決策,始終由法官獨立行使,AI只能影響「如何呈現」。


(二)主要效益: 

大幅縮短文件處理時間、減輕重複勞力、間接提升司法近用性。


(三)主要風險:

•幻覺問題:

幾乎所有法官都曾遭遇AI捏造不存在的案件引用——這是目前最嚴重的技術風險。


•隱私與資安:

訴訟資料可能遭外部伺服器擷取;受訪法官多人表示會審閱服務條款。


•AI書狀海嘯:

擔憂自我代理訴訟人大量產製篇幅冗長但內容有誤的AI書狀,反加重法院負擔。


•公眾觀感:

缺乏透明揭露機制,可能引發司法公正性疑慮。

 

三、政策建議

報告提出六項核心方向:


1.「人在迴路」原則:

AI輸出須經法官實質審閱,不得直接作為裁判依據。


2.漸進式採用:

先從文件摘要等低風險場景試行,再評估擴大應用。


3.建立揭露機制:

涉及AI輔助的訴訟文件應說明使用情形。


4.強化資安:

優先採用本地端部署或專用雲端,建立身份驗證機制。


5.提升AI素養:

透過CLE課程系統性建立法官的AI識讀能力,納入「勝任能力」倫理義務。


6.院際治理規範:

建立一致性的系統層面政策,避免個別法官「各行其是」。

 

四、對台灣的啟示

1.司法院現有方向符合原則:

司法院的「智慧化裁判草稿自動生成系統」以高度類型化犯罪為試行領域、法官最終審定,與報告「AI輔助而非取代」的核心精神相符。

 

2. 幻覺風險的防範:

若法官私下使用商業GenAI(ChatGPT、Copilot等)輔助法律研究,台灣同樣面臨幻覺風險。建議司法院研訂驗核準則,防止引用不存在或錯誤的判決先例。

 

3. 倫理規範更新迫切:

現行《法官法》與《法官倫理規範》未明確規範GenAI使用情境。應考量增訂:AI輔助裁判的揭露義務、AI素養納入勝任義務範疇、明文禁止以AI取代法官獨立裁量。

 

4. AI書狀海嘯的預警:

隨中文GenAI品質提升,台灣法院可預見AI生成書狀激增、品質參差不齊的挑戰。建議預先評估對案件管理系統的衝擊,考慮書狀揭露義務。

 

5. 資安治理的急迫性:

使用境外商業GenAI服務處理訴訟卷宗,涉及個資或商業機密的文件面臨外洩風險。建議優先採用本地端部署或政府雲端專用環境,並制定資安標準。

 

6. 法官學院的AI培訓:

建議司法院法官學院將GenAI基礎知識、倫理應用與風險識別納入常規繼續教育,並設計具體操作案例與判斷框架。

 

綜上所述,生成式AI可以是強大的司法輔助工具,但「法官永遠是最終決策者」這一原則不可動搖。台灣推進方向大致符合此精神,在倫理規範明文化、資安治理、AI素養培訓三面向仍有重要的制度建設空間。

 

資料來源: NCSC、Thomson Reuters Institute、ABA Journal、司法院官網


另可參閱:

法院使用人工智慧輔助審判對於訴訟之影響,陳唯仁。

生成式 AI 作為司法人員決策輔助工具的可能性初探:以 ChatGPT 為例,張巧函。

讀行者-avatar-img
讀行者喜歡這篇
avatar-img
加入討論
avatar-avatar
建佑律師_NoMoreLaw
更新 發佈閱讀 5 分鐘
src
src
src
src

我大約在兩年前到中興大學TED演講,題目是:AI判官行不行?

當時在說明世界與台灣法官在應用生成式AI的實務情況,以及法源依據。

兩年過去了,世界各地陸續出現實證研究報告,就可以來延續之前這個類似的話題,並回頭來看看可對台灣有何啟示。

 

《法官使用生成式AI:實踐經驗與啟示》

報告資訊: AI Policy Consortium for Law & Courts(NCSC × Thomson Reuters Institute)|2026年3月

 

一、研究背景與目的

本報告係「法律與法院AI政策聯盟」治理與倫理工作小組主導,於2025年10月至11月間對美國10個州的13位現任法官進行一對一深度訪談(涵蓋最高法院大法官、上訴法院、一審及專業法院)。


研究動機在於:市場上針對企業與律師的AI調查已汗牛充棟,但以「法官本身」為研究對象的實證資料卻極為匱乏。

 

二、主要發現

(一)法官如何使用GenAI?

受訪法官普遍以「法律實習生」比喻GenAI——只在已掌握大方向的前提下,才交由AI處理輔助性工作,並嚴格覆核。


實際使用場景集中於低風險、高重複性工作:

•大量訴狀與卷宗的摘要整理(並自動生成有出處引用的時間軸)


•確定裁判結論後,協助草擬特定段落初稿(如法律標準說明)


•規劃CLE課程、演講稿、法院行政文書


•快速梳理特定法律問題的既有見解(事後必須自行驗證引用來源)


所有受訪法官一致表示:「裁判什麼」的核心決策,始終由法官獨立行使,AI只能影響「如何呈現」。


(二)主要效益: 

大幅縮短文件處理時間、減輕重複勞力、間接提升司法近用性。


(三)主要風險:

•幻覺問題:

幾乎所有法官都曾遭遇AI捏造不存在的案件引用——這是目前最嚴重的技術風險。


•隱私與資安:

訴訟資料可能遭外部伺服器擷取;受訪法官多人表示會審閱服務條款。


•AI書狀海嘯:

擔憂自我代理訴訟人大量產製篇幅冗長但內容有誤的AI書狀,反加重法院負擔。


•公眾觀感:

缺乏透明揭露機制,可能引發司法公正性疑慮。

 

三、政策建議

報告提出六項核心方向:


1.「人在迴路」原則:

AI輸出須經法官實質審閱,不得直接作為裁判依據。


2.漸進式採用:

先從文件摘要等低風險場景試行,再評估擴大應用。


3.建立揭露機制:

涉及AI輔助的訴訟文件應說明使用情形。


4.強化資安:

優先採用本地端部署或專用雲端,建立身份驗證機制。


5.提升AI素養:

透過CLE課程系統性建立法官的AI識讀能力,納入「勝任能力」倫理義務。


6.院際治理規範:

建立一致性的系統層面政策,避免個別法官「各行其是」。

 

四、對台灣的啟示

1.司法院現有方向符合原則:

司法院的「智慧化裁判草稿自動生成系統」以高度類型化犯罪為試行領域、法官最終審定,與報告「AI輔助而非取代」的核心精神相符。

 

2. 幻覺風險的防範:

若法官私下使用商業GenAI(ChatGPT、Copilot等)輔助法律研究,台灣同樣面臨幻覺風險。建議司法院研訂驗核準則,防止引用不存在或錯誤的判決先例。

 

3. 倫理規範更新迫切:

現行《法官法》與《法官倫理規範》未明確規範GenAI使用情境。應考量增訂:AI輔助裁判的揭露義務、AI素養納入勝任義務範疇、明文禁止以AI取代法官獨立裁量。

 

4. AI書狀海嘯的預警:

隨中文GenAI品質提升,台灣法院可預見AI生成書狀激增、品質參差不齊的挑戰。建議預先評估對案件管理系統的衝擊,考慮書狀揭露義務。

 

5. 資安治理的急迫性:

使用境外商業GenAI服務處理訴訟卷宗,涉及個資或商業機密的文件面臨外洩風險。建議優先採用本地端部署或政府雲端專用環境,並制定資安標準。

 

6. 法官學院的AI培訓:

建議司法院法官學院將GenAI基礎知識、倫理應用與風險識別納入常規繼續教育,並設計具體操作案例與判斷框架。

 

綜上所述,生成式AI可以是強大的司法輔助工具,但「法官永遠是最終決策者」這一原則不可動搖。台灣推進方向大致符合此精神,在倫理規範明文化、資安治理、AI素養培訓三面向仍有重要的制度建設空間。

 

資料來源: NCSC、Thomson Reuters Institute、ABA Journal、司法院官網


另可參閱:

法院使用人工智慧輔助審判對於訴訟之影響,陳唯仁。

生成式 AI 作為司法人員決策輔助工具的可能性初探:以 ChatGPT 為例,張巧函。

讀行者-avatar-img
讀行者喜歡這篇
avatar-img
加入討論