建議先看完對應教學影片再作答,效果加倍。 👉 YouTube 教學頻道
第 1 題
某銀行導入 AI 自動化貸款審核系統,法遵部門要求在正式上線前完成「AI 風險評估」。AI 規劃師需要識別此系統的主要風險類別。下列哪一組風險分類最能完整涵蓋此場景的核心風險?
(A) 演算法偏見風險(對特定族群不公平)、可解釋性風險(無法說明拒貸理由)、資料隱私風險(客戶個資被濫用)、模型漂移風險(部署後效能隨時間衰退)
(B) 硬體故障風險(伺服器當機)、網路延遲風險(API 回應超時)、程式碼品質風險(軟體 bug)、供應商倒閉風險(服務中斷)
(C) 市場競爭風險(競爭對手也有 AI 系統)、品牌形象風險(客戶不喜歡 AI 決策)、匯率風險(海外系統費用波動)、人才流失風險(AI 工程師離職)
(D) 只有資安風險需要評估,其他類型的風險由業務部門負責,AI 規劃師只需確保系統不被駭客入侵
答案:A
深度導讀解析
正確答案:A
核心技術點:AI 系統的四類核心風險——偏見、可解釋性、隱私、模型漂移
中級理論拆解:貸款審核直接影響個人財務機會,需特別關注:演算法偏見(訓練資料的歷史歧視)、可解釋性(GDPR 要求說明自動化決策依據)、資料隱私(金融個資的法規保護)、模型漂移(市場條件改變讓模型失準)。
選項坑洞掃描:B 描述的是 IT 維運風險,不是 AI 特有的倫理與合規風險。C 是一般商業風險,與 AI 系統的技術和倫理特性無關。D 把 AI 風險管理範疇縮限為資安,大幅低估了 AI 系統的風險廣度。
破題反射字:演算法偏見 → 訓練資料歷史歧視 / 可解釋性 → GDPR 自動化決策說明義務 / 模型漂移 → 部署後效能衰退
第 2 題
某醫療 AI 公司的腫瘤診斷模型 AUC 達 0.96,但臨床驗證發現對亞裔女性患者的召回率(Recall)比白人男性低 19 個百分點,且模型未使用「族裔」或「性別」作為輸入特徵。監管機關要求公司說明偏見來源並提出改善方案。下列何者最能正確描述此偏見的產生機制?
(A) 偏見來自模型過擬合,高 AUC 代表模型記住了訓練資料的雜訊,應加入 L2 正則化後重新訓練
(B) 偏見來自代理變數(Proxy Variable)——未使用族裔性別,但影像特徵、就醫紀錄等特徵可能與族裔性別高度相關,模型透過這些代理特徵間接學到偏見;應使用 SHAP 分析各特徵對不同族群決策的貢獻差異
(C) 偏見來自測試集設計不當,只要擴大測試集讓各族群樣本均等,召回率差距會自然消失,不需要修改模型
(D) 沒有使用族裔和性別特徵代表模型設計上已完全公平,19% 的召回率差距只是統計隨機波動,重新抽樣後差距會消失
答案:B
深度導讀解析
正確答案:B
核心技術點:代理歧視(Proxy Discrimination)機制與 SHAP 在偏見診斷的應用
中級理論拆解:不使用敏感屬性不代表公平,影像特徵(如皮膚色調、體型)可能與族裔相關,就醫頻率可能與性別相關,模型透過這些代理特徵間接學到偏見。這稱為「公平性透過遮蔽(Fairness Through Unawareness)」的失效。
選項坑洞掃描:A 說是過擬合,過擬合是訓練驗證差距大,與跨族群效能差異是不同的問題。C 說擴大測試集就能消除差距,測試集大小不改變模型的偏見,只改變統計估計的精度。D 說不使用敏感特徵代表公平,代理歧視的研究已證明此假設不成立。
破題反射字:代理變數 → 間接學到敏感屬性偏見 / Fairness Through Unawareness → 遮蔽敏感特徵不等於公平 / SHAP → 偏見來源特徵診斷
第 3 題
某人壽保險公司部署 AI 保費定價系統,監管機關依歐盟 AI 法案(EU AI Act)對系統進行稽核,認定此系統屬於「高風險 AI 系統」。稽核員要求公司提交以下文件:技術文件、使用說明、風險管理紀錄、人工監督機制說明。公司法務詢問 AI 規劃師:EU AI Act 對高風險系統的判定邏輯為何,以及這四項要求的法律依據。下列何者最能正確描述?
(A) EU AI Act 以模型參數量為判定標準,超過 70 億參數的模型自動列為高風險;四項文件要求是為了讓監管機關評估模型的訓練成本和碳排放
(B) EU AI Act 以系統對基本權利的潛在影響程度分類,保險定價直接影響個人的財務機會和生活品質,屬於高風險應用領域;四項文件要求是讓監管機關和用戶能驗證系統的合規性、透明度和可問責性
(C) EU AI Act 只規範公部門使用的 AI 系統,私人保險公司的定價系統不在規範範圍內,稽核員的要求不具法律效力
(D) EU AI Act 的高風險判定依企業規模決定,年營收超過 5,000 萬歐元的企業才需要遵守高風險系統的規定,中小型保險公司可豁免
答案:C
深度導讀解析
正確答案:B
按分布規則第 3 題應為 C,重排:
第 3 題(重排)
某人壽保險公司的 AI 保費定價系統被 EU AI Act 稽核認定為高風險系統,稽核員要求提交技術文件、使用說明、風險管理紀錄、人工監督機制說明。下列何者最能正確描述 EU AI Act 高風險系統的判定邏輯與四項文件要求的依據?
(A) EU AI Act 以參數量判定,超過 70 億參數自動列為高風險;四項文件是為評估訓練成本和碳排放
(B) EU AI Act 只規範公部門 AI 系統,私人保險公司不在規範範圍,稽核員的要求不具法律效力
(C) EU AI Act 以系統對基本權利的潛在影響程度分類,保險定價直接影響個人財務機會,屬於高風險應用領域;四項文件要求讓監管機關和用戶能驗證系統的合規性、透明度和可問責性
(D) EU AI Act 高風險判定依企業規模,年營收超過 5,000 萬歐元才需遵守,中小型保險公司可豁免
答案:C
深度導讀解析
正確答案:C
核心技術點:EU AI Act 高風險判定邏輯——基本權利影響程度,非技術規格
中級理論拆解:EU AI Act 依對基本權利的潛在影響程度分四級,保險定價明確列於高風險應用領域(附錄三)。四項文件要求的目的是實現透明度(技術文件)、可用性(使用說明)、風險控制(風險管理紀錄)、人工監督(避免完全自動化決策)。
選項坑洞掃描:A 說依參數量判定,參數量是 GPAI(通用目的 AI 模型)的另一套規範,高風險判定看應用場景。B 說只規範公部門,EU AI Act 是跨行業的一般性法規,私人企業同樣適用。D 說依企業規模豁免,EU AI Act 無規模豁免條款,只有部分行政負擔對中小企業有減免。
破題反射字:高風險判定 → 對基本權利的影響程度 / 保險定價 → 高風險應用領域 / 四項文件 → 透明度與可問責性
第 4 題
某 AI 規劃師正在為企業導入 AI 風險管理框架,需要建立「模型治理(Model Governance)」機制。資深顧問指出,模型治理不只是上線前的一次性評估,而是貫穿模型全生命週期的持續管理。下列哪一組措施最能完整體現全生命週期模型治理的核心要素?
(A) 只需在模型上線前進行一次完整的偏見稽核和可解釋性評估,通過後即可持續使用直到模型被替換,無需後續監控
(B) 模型治理只需關注技術指標(如 AUC、F1),業務影響和倫理風險由業務部門負責,AI 團隊只需確保模型效能達標
(C) 模型治理只在受監管行業(金融、醫療)才有必要,一般電商和零售業的 AI 系統無需建立正式的治理框架
(D) 全生命週期治理包含:上線前風險評估與偏見稽核、部署後效能與資料漂移監控、定期重新評估與再訓練觸發機制、退役時的資料處理規範,並建立跨職能的模型審查委員會負責關鍵決策
答案:D
深度導讀解析
正確答案:D
核心技術點:模型全生命週期治理的四個階段與跨職能委員會的必要性
中級理論拆解:模型治理涵蓋:上線前(偏見稽核、可解釋性評估、風險登記)→ 部署後(效能監控、資料漂移偵測)→ 持續維護(重訓練觸發條件、版本控管)→ 退役(訓練資料刪除、模型下架記錄)。跨職能委員會(資料科學、法遵、業務、法務)確保決策不偏向單一視角。
選項坑洞掃描:A 說一次性評估就夠,模型漂移、資料分布偏移都是上線後才出現的風險,需要持續監控。B 說技術指標只是 AI 團隊的事,偏見和倫理風險的後果(法律訴訟、監管罰款)需要跨職能協作。C 說只有受監管行業需要,任何對決策有重大影響的 AI 系統都需要治理框架。
破題反射字:全生命週期治理 → 上線前到退役 / 跨職能委員會 → 法遵、業務、技術協作 / 漂移監控 → 部署後的持續管理
第 5 題
某電商平台 AI 推薦系統的工程師在後台分析發現,系統對女性用戶推薦的高薪職涯廣告明顯少於男性用戶,但系統未使用性別作為輸入特徵。倫理委員會要求提出改善方案。下列哪一組策略最能從資料、模型、評估三個層次系統性地解決此問題?
(A) 改善方案只需要在前端介面上針對女性用戶手動調整廣告顯示比例,後端模型不需要修改,前端調整能立即解決表面問題
(B) 改善方案只需要公開聲明系統不使用性別特徵,因為未直接使用敏感屬性就已符合公平性要求,不需要額外的技術介入
(C) 改善方案只需要增加訓練資料量,更多的資料能讓模型自動學習到更公平的推薦模式,資料量夠大後偏見會自然消失
(D) 資料層補充女性用戶的職涯廣告互動資料、模型層加入公平性約束(確保各性別群體的廣告曝光率符合均等機會指標)、評估層定期計算各族群的推薦差異指標並設定預警閾值
答案:D
深度導讀解析
正確答案:D
核心技術點:AI 偏見的系統性三層改善策略——資料、模型、評估
中級理論拆解:資料層補足少數群體樣本消除資料不均;模型層在損失函數加入公平性懲罰項(如均等機會約束),讓訓練目標同時優化準確率和公平性;評估層建立持續監控機制,設定各群體指標差距的預警閾值。三層缺一不可。
選項坑洞掃描:A 說前端手動調整,前端調整無法修正模型內部的偏見學習,且不可持續。B 說不使用敏感屬性就夠,代理歧視已證明此方法不足。C 說增加資料量就能消除偏見,若舊資料本身有偏見,更多的偏見資料只會讓偏見更穩固。
破題反射字:三層改善 → 資料補足、模型約束、評估監控 / 公平性懲罰項 → 損失函數加入公平性目標 / 預警閾值 → 持續監控機制
還在用零散筆記備考?
這份《iPAS 中級白話備考筆記》把三科考綱重點全部用人話整理好,考點速記、實戰場景、常見陷阱一次收錄。適合非本科、時間有限、想快速抓住考試方向的自學者。
👉 立即取得備考筆記