【L21203】AI 風險管理|偏見、可解釋性、監管合規 模擬考題

更新 發佈閱讀 12 分鐘

建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道


第 1 題

某銀行導入 AI 自動化貸款審核系統,法遵部門要求在正式上線前完成「AI 風險評估」。AI 規劃師需要識別此系統的主要風險類別。下列哪一組風險分類最能完整涵蓋此場景的核心風險?

(A) 演算法偏見風險(對特定族群不公平)、可解釋性風險(無法說明拒貸理由)、資料隱私風險(客戶個資被濫用)、模型漂移風險(部署後效能隨時間衰退)

(B) 硬體故障風險(伺服器當機)、網路延遲風險(API 回應超時)、程式碼品質風險(軟體 bug)、供應商倒閉風險(服務中斷)

(C) 市場競爭風險(競爭對手也有 AI 系統)、品牌形象風險(客戶不喜歡 AI 決策)、匯率風險(海外系統費用波動)、人才流失風險(AI 工程師離職)

(D) 只有資安風險需要評估,其他類型的風險由業務部門負責,AI 規劃師只需確保系統不被駭客入侵

答案:A

深度導讀解析

正確答案:A

核心技術點:AI 系統的四類核心風險——偏見、可解釋性、隱私、模型漂移

中級理論拆解:貸款審核直接影響個人財務機會,需特別關注:演算法偏見(訓練資料的歷史歧視)、可解釋性(GDPR 要求說明自動化決策依據)、資料隱私(金融個資的法規保護)、模型漂移(市場條件改變讓模型失準)。

選項坑洞掃描:B 描述的是 IT 維運風險,不是 AI 特有的倫理與合規風險。C 是一般商業風險,與 AI 系統的技術和倫理特性無關。D 把 AI 風險管理範疇縮限為資安,大幅低估了 AI 系統的風險廣度。

破題反射字:演算法偏見 → 訓練資料歷史歧視 / 可解釋性 → GDPR 自動化決策說明義務 / 模型漂移 → 部署後效能衰退


第 2 題

某醫療 AI 公司的腫瘤診斷模型 AUC 達 0.96,但臨床驗證發現對亞裔女性患者的召回率(Recall)比白人男性低 19 個百分點,且模型未使用「族裔」或「性別」作為輸入特徵。監管機關要求公司說明偏見來源並提出改善方案。下列何者最能正確描述此偏見的產生機制?

(A) 偏見來自模型過擬合,高 AUC 代表模型記住了訓練資料的雜訊,應加入 L2 正則化後重新訓練

(B) 偏見來自代理變數(Proxy Variable)——未使用族裔性別,但影像特徵、就醫紀錄等特徵可能與族裔性別高度相關,模型透過這些代理特徵間接學到偏見;應使用 SHAP 分析各特徵對不同族群決策的貢獻差異

(C) 偏見來自測試集設計不當,只要擴大測試集讓各族群樣本均等,召回率差距會自然消失,不需要修改模型

(D) 沒有使用族裔和性別特徵代表模型設計上已完全公平,19% 的召回率差距只是統計隨機波動,重新抽樣後差距會消失

答案:B

深度導讀解析

正確答案:B

核心技術點:代理歧視(Proxy Discrimination)機制與 SHAP 在偏見診斷的應用

中級理論拆解:不使用敏感屬性不代表公平,影像特徵(如皮膚色調、體型)可能與族裔相關,就醫頻率可能與性別相關,模型透過這些代理特徵間接學到偏見。這稱為「公平性透過遮蔽(Fairness Through Unawareness)」的失效。

選項坑洞掃描:A 說是過擬合,過擬合是訓練驗證差距大,與跨族群效能差異是不同的問題。C 說擴大測試集就能消除差距,測試集大小不改變模型的偏見,只改變統計估計的精度。D 說不使用敏感特徵代表公平,代理歧視的研究已證明此假設不成立。

破題反射字:代理變數 → 間接學到敏感屬性偏見 / Fairness Through Unawareness → 遮蔽敏感特徵不等於公平 / SHAP → 偏見來源特徵診斷


第 3 題

某人壽保險公司部署 AI 保費定價系統,監管機關依歐盟 AI 法案(EU AI Act)對系統進行稽核,認定此系統屬於「高風險 AI 系統」。稽核員要求公司提交以下文件:技術文件、使用說明、風險管理紀錄、人工監督機制說明。公司法務詢問 AI 規劃師:EU AI Act 對高風險系統的判定邏輯為何,以及這四項要求的法律依據。下列何者最能正確描述?

(A) EU AI Act 以模型參數量為判定標準,超過 70 億參數的模型自動列為高風險;四項文件要求是為了讓監管機關評估模型的訓練成本和碳排放

(B) EU AI Act 以系統對基本權利的潛在影響程度分類,保險定價直接影響個人的財務機會和生活品質,屬於高風險應用領域;四項文件要求是讓監管機關和用戶能驗證系統的合規性、透明度和可問責性

(C) EU AI Act 只規範公部門使用的 AI 系統,私人保險公司的定價系統不在規範範圍內,稽核員的要求不具法律效力

(D) EU AI Act 的高風險判定依企業規模決定,年營收超過 5,000 萬歐元的企業才需要遵守高風險系統的規定,中小型保險公司可豁免

答案:C

深度導讀解析

正確答案:B

按分布規則第 3 題應為 C,重排:

第 3 題(重排)

某人壽保險公司的 AI 保費定價系統被 EU AI Act 稽核認定為高風險系統,稽核員要求提交技術文件、使用說明、風險管理紀錄、人工監督機制說明。下列何者最能正確描述 EU AI Act 高風險系統的判定邏輯與四項文件要求的依據?

(A) EU AI Act 以參數量判定,超過 70 億參數自動列為高風險;四項文件是為評估訓練成本和碳排放

(B) EU AI Act 只規範公部門 AI 系統,私人保險公司不在規範範圍,稽核員的要求不具法律效力

(C) EU AI Act 以系統對基本權利的潛在影響程度分類,保險定價直接影響個人財務機會,屬於高風險應用領域;四項文件要求讓監管機關和用戶能驗證系統的合規性、透明度和可問責性

(D) EU AI Act 高風險判定依企業規模,年營收超過 5,000 萬歐元才需遵守,中小型保險公司可豁免

答案:C

深度導讀解析

正確答案:C

核心技術點:EU AI Act 高風險判定邏輯——基本權利影響程度,非技術規格

中級理論拆解:EU AI Act 依對基本權利的潛在影響程度分四級,保險定價明確列於高風險應用領域(附錄三)。四項文件要求的目的是實現透明度(技術文件)、可用性(使用說明)、風險控制(風險管理紀錄)、人工監督(避免完全自動化決策)。

選項坑洞掃描:A 說依參數量判定,參數量是 GPAI(通用目的 AI 模型)的另一套規範,高風險判定看應用場景。B 說只規範公部門,EU AI Act 是跨行業的一般性法規,私人企業同樣適用。D 說依企業規模豁免,EU AI Act 無規模豁免條款,只有部分行政負擔對中小企業有減免。

破題反射字:高風險判定 → 對基本權利的影響程度 / 保險定價 → 高風險應用領域 / 四項文件 → 透明度與可問責性


第 4 題

某 AI 規劃師正在為企業導入 AI 風險管理框架,需要建立「模型治理(Model Governance)」機制。資深顧問指出,模型治理不只是上線前的一次性評估,而是貫穿模型全生命週期的持續管理。下列哪一組措施最能完整體現全生命週期模型治理的核心要素?

(A) 只需在模型上線前進行一次完整的偏見稽核和可解釋性評估,通過後即可持續使用直到模型被替換,無需後續監控

(B) 模型治理只需關注技術指標(如 AUC、F1),業務影響和倫理風險由業務部門負責,AI 團隊只需確保模型效能達標

(C) 模型治理只在受監管行業(金融、醫療)才有必要,一般電商和零售業的 AI 系統無需建立正式的治理框架

(D) 全生命週期治理包含:上線前風險評估與偏見稽核、部署後效能與資料漂移監控、定期重新評估與再訓練觸發機制、退役時的資料處理規範,並建立跨職能的模型審查委員會負責關鍵決策

答案:D

深度導讀解析

正確答案:D

核心技術點:模型全生命週期治理的四個階段與跨職能委員會的必要性

中級理論拆解:模型治理涵蓋:上線前(偏見稽核、可解釋性評估、風險登記)→ 部署後(效能監控、資料漂移偵測)→ 持續維護(重訓練觸發條件、版本控管)→ 退役(訓練資料刪除、模型下架記錄)。跨職能委員會(資料科學、法遵、業務、法務)確保決策不偏向單一視角。

選項坑洞掃描:A 說一次性評估就夠,模型漂移、資料分布偏移都是上線後才出現的風險,需要持續監控。B 說技術指標只是 AI 團隊的事,偏見和倫理風險的後果(法律訴訟、監管罰款)需要跨職能協作。C 說只有受監管行業需要,任何對決策有重大影響的 AI 系統都需要治理框架。

破題反射字:全生命週期治理 → 上線前到退役 / 跨職能委員會 → 法遵、業務、技術協作 / 漂移監控 → 部署後的持續管理


第 5 題

某電商平台 AI 推薦系統的工程師在後台分析發現,系統對女性用戶推薦的高薪職涯廣告明顯少於男性用戶,但系統未使用性別作為輸入特徵。倫理委員會要求提出改善方案。下列哪一組策略最能從資料、模型、評估三個層次系統性地解決此問題?

(A) 改善方案只需要在前端介面上針對女性用戶手動調整廣告顯示比例,後端模型不需要修改,前端調整能立即解決表面問題

(B) 改善方案只需要公開聲明系統不使用性別特徵,因為未直接使用敏感屬性就已符合公平性要求,不需要額外的技術介入

(C) 改善方案只需要增加訓練資料量,更多的資料能讓模型自動學習到更公平的推薦模式,資料量夠大後偏見會自然消失

(D) 資料層補充女性用戶的職涯廣告互動資料、模型層加入公平性約束(確保各性別群體的廣告曝光率符合均等機會指標)、評估層定期計算各族群的推薦差異指標並設定預警閾值

答案:D

深度導讀解析

正確答案:D

核心技術點:AI 偏見的系統性三層改善策略——資料、模型、評估

中級理論拆解:資料層補足少數群體樣本消除資料不均;模型層在損失函數加入公平性懲罰項(如均等機會約束),讓訓練目標同時優化準確率和公平性;評估層建立持續監控機制,設定各群體指標差距的預警閾值。三層缺一不可。

選項坑洞掃描:A 說前端手動調整,前端調整無法修正模型內部的偏見學習,且不可持續。B 說不使用敏感屬性就夠,代理歧視已證明此方法不足。C 說增加資料量就能消除偏見,若舊資料本身有偏見,更多的偏見資料只會讓偏見更穩固。

破題反射字:三層改善 → 資料補足、模型約束、評估監控 / 公平性懲罰項 → 損失函數加入公平性目標 / 預警閾值 → 持續監控機制


還在用零散筆記備考?

這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。

👉 立即取得備考筆記

留言
avatar-img
iPAS自學路|AI應用規劃師備考筆記與考點解析
372會員
97內容數
職場資深管理職,非資訊本科,一次通過 iPAS AI 應用規劃師初級與中級雙證照。頻道累積 200+ 集影片、80+ 篇備考文章、沙龍會員 300+ 人。白話考點解析搭配 YouTube 影音導航,專為非本科上班族設計的通勤時間備考工具。
2026/04/02
建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
2026/04/02
建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
2026/04/01
建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
2026/04/01
建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
2025/11/06
問題 1 (中級) ------------------------------ 題目: 一家大型零售集團希望建立一個統一的顧客360度視圖,以提升精準行銷與顧客體驗。其顧客數據分散於線上交易系統、社群媒體監測平台、實體POS系統及客服記錄等多個異構來源,且數據模態包含結構化、半結構化和非結構化
2025/11/06
問題 1 (中級) ------------------------------ 題目: 一家大型零售集團希望建立一個統一的顧客360度視圖,以提升精準行銷與顧客體驗。其顧客數據分散於線上交易系統、社群媒體監測平台、實體POS系統及客服記錄等多個異構來源,且數據模態包含結構化、半結構化和非結構化
看更多