第 1 題
某研究聯盟由三家醫學中心組成,要共同訓練罕見疾病影像辨識模型。各院受限於個資法與醫療主管機關規範,病患影像不得離開院內網路,但三院皆願意貢獻資料效能提升模型品質。下列何項訓練架構最為合適?
(A) 三院各自將影像資料集中到一個共用雲端平台後合併訓練,取得最大樣本量以提升模型效能。
(B) 三院各自獨立訓練各自模型,最後以投票或平均方式整合三個模型的預測結果作為聯盟模型。
(C) 採聯邦學習(Federated Learning):各院在本地訓練並只上傳模型參數或梯度更新至中央聚合伺服器,由中央執行 FedAvg 等聚合演算法產出全局模型,資料本身不離院。
(D) 將影像先用對稱金鑰加密後集中到雲端再訓練,加密即可解決個資跨院合規問題。
深度導讀解析
正確答案:C
核心考點:聯邦學習資料不外流
理論拆解:聯邦學習讓原始資料留在本地、只上傳參數/梯度更新,中央聚合形成全局模型。FedAvg 是常見聚合方法,實務收斂效果仍受資料分布、客戶端異質性與訓練設定影響,是跨機構合作訓練的標準解決方案。
選項坑洞掃描:A 集中資料違反不得離院規範。B 獨立訓練各院樣本量小效能受限。D 加密集中仍屬資料外傳,解密後依然可識別。
破題反射字:資料不外流 → 聯邦學習 / 只上傳參數 → FedAvg
第 2 題
某銀行要委託外部雲端供應商訓練 ML 模型,但客戶交易資料屬高度敏感,不希望雲端供應商看到任何明文資料。業務團隊詢問是否有技術能讓雲端「在看不到明文的前提下執行運算」。下列何項技術最能滿足此需求?
(A) 使用 TLS/SSL 加密傳輸管線至雲端,雲端接收後進行標準解密再執行 ML 運算流程。
(B) 採同態加密(Homomorphic Encryption):資料於客戶端加密後上雲,雲端在密文上直接計算產出加密結果,客戶端解密取得明文結果,雲端全程無法看到明文。
(C) 將所有資料欄位做去識別化處理後上雲,雲端即可安全進行明文運算而不涉及個資。
(D) 將所有運算改為人工操作員手動執行,完全避免自動化雲端運算可能洩漏資料的風險。
深度導讀解析
正確答案:B
核心考點:同態加密保護明文
理論拆解:同態加密支援在密文上做加法與乘法運算,雲端計算結果仍為密文,客戶端解密後得到等同於明文計算的答案。雲端全程無法看到明文是其核心隱私保證。
選項坑洞掃描:A TLS 只保護傳輸,雲端解密後仍看到明文。C 去識別化在雲端仍可能被重新識別且結構性資料會洩漏。D 人工操作不可擴展且易出錯。
破題反射字:密文上計算 → 同態加密 / 雲端無明文 → 客戶端解密
第 3 題
某企業客服中心要將過去三年內部客服對話紀錄用於訓練內部 LLM 助理,但擔心對話中可能包含客戶姓名、身分證、電話、信用卡號等個人資料,若被模型記憶日後輸出將造成合規危機。下列何項前處理流程最為合適?
(A) 建置 PII 偵測 pipeline,結合正則表達式(身分證、信用卡格式)與 NER 模型(姓名、地址),自動識別並對敏感欄位做遮蔽(masking)或占位符替換(如將真實姓名替換為「[PERSON]」)後再用於訓練。
(B) 僅用關鍵字黑名單過濾「身分證」「密碼」「信用卡」等字串,符合字串即刪除整句,其餘資料直接用於訓練。
(C) 先訓練完整模型上線後,再於輸出層加入 PII 過濾器過濾生成文字,避免耗費前處理資源。
(D) 將所有對話資料外包給第三方廠商清洗,企業端不需承擔 PII 識別責任。
深度導讀解析
正確答案:A
核心考點:PII 偵測與遮蔽
理論拆解:PII 識別需結合規則(格式明確的身分證、卡號)與模型(姓名、地址等 NER),遮蔽後再訓練可避免模型記憶敏感資訊。事前處理是標準做法。
選項坑洞掃描:B 黑名單覆蓋不全且錯殺率高。C 事後過濾仍代表模型已記憶個資,存在外洩風險。D 外包不轉移個資法主體責任。
破題反射字:訓練前 PII 處理 → Regex + NER / 遮蔽或 token 化 → 防模型記憶
第 4 題
某銀行放貸模型上線後,董事會收到投訴,指出「不同族群被核准的比例差異過大」。在尚未套用特定法規門檻或四分之五規則之前,團隊希望先從模型輸出結果本身,檢查各族群獲得正向預測的比例是否接近。下列何項公平性指標最直接對應此診斷需求?
(A) Accuracy Parity:要求各族群整體 Accuracy 相等,以確保模型在各族群表現一致。
(B) Equal Opportunity:要求各族群的真陽率(TPR)相等,確保合格申請人無論族群皆有同樣被核准機率。
(C) Disparate Impact:常用於檢查特定受保護族群與參照族群之間的正向結果比例是否低於特定門檻,較偏向法規或合規檢核情境。
(D) Demographic Parity(統計同等性):檢查不同族群獲得正向預測的比例是否大致相等,最直接對應「各族群核准比例是否接近」的診斷需求。
深度導讀解析
正確答案:D
核心考點:公平性指標對應訴求
理論拆解:Demographic Parity 直接量化「不同族群正向預測比例是否一致」,對應「核准率差異」訴求。其他指標(Equal Opportunity、Equalized Odds、Calibration)各自回答不同公平性面向,需依訴求選用。
選項坑洞掃描:A Accuracy Parity 可能掩蓋誤判率差異。B Equal Opportunity 僅針對合格者,與「總核准率」不完全同義。C Disparate Impact 也與正向結果比例有關,但通常是以特定受保護族群與參照族群的比值進行合規檢核;若題目問的是先診斷各族群正向預測率是否接近,Demographic Parity 更直接。
破題反射字:核准率差異 → Demographic Parity / 真陽率差異 → Equal Opportunity
第 5 題
某金融主管要求團隊解釋信用評分模型,同時包含「整體哪些特徵最重要」與「為什麼某位客戶被拒絕」兩種需求。資料科學家應如何架構 XAI 方案?
(A) 兩種需求皆以同一種方法回答,全部採 SHAP 即可一體適用無需區分全域或局部。
(B) 整體用 LIME 解釋、單一客戶用 Feature Importance 解釋,即可對應兩種需求。
(C) 整體層次用 Feature Importance(樹模型)或 SHAP Summary Plot 呈現全域特徵影響;單一客戶用 SHAP Force Plot 或 LIME 呈現該筆預測的局部特徵貢獻。兩者回答不同問題需並用。
(D) 兩種需求皆只需查閱模型係數即可完整回答,無需額外解釋工具。
深度導讀解析
正確答案:C
核心考點:全域與局部解釋
理論拆解:全域解釋呈現模型「整體」在意哪些特徵(Feature Importance、SHAP Summary Plot);局部解釋呈現「單一預測」如何形成(SHAP Force Plot、LIME)。兩者回答不同層次問題需互補使用。
選項坑洞掃描:A SHAP 可兼用但不代表「一招走天下」可取代其他工具。B 全域局部角色顛倒。D 係數只適用線性模型且僅為全域資訊。
破題反射字:全域解釋 → Feature Importance / 局部解釋 → SHAP Force/LIME
第 6 題
某企業上線對外 LLM 客服前,風險長要求在上線前完成一輪「主動攻擊式」安全審查,找出潛在被惡意使用者利用的漏洞。下列何項審查方式最為合適?
(A) 僅做功能性測試,確認 LLM 對常見詢問能正確回應即視為完成安全審查。
(B) 紅隊測試(Red Teaming):組織專業測試人員扮演惡意使用者,系統性嘗試繞過 Guardrails、觸發 Prompt Injection、誘導生成有害內容或揭露敏感資訊,以暴露漏洞並修補。
(C) 僅做白盒程式碼審查與套件掃描,確認後端程式無已知 CVE 即可上線。
(D) 上線後被動觀察使用者反饋,一旦使用者通報異常再個別處理,以節省事前審查成本。
深度導讀解析
正確答案:B
核心考點:Red Teaming 主動攻擊審查
理論拆解:紅隊測試以對抗思維主動發掘模型在 Prompt Injection、Jailbreak、敏感輸出、偏見放大等面向的漏洞,是 LLM 上線前的標準安全審查程序。
選項坑洞掃描:A 功能性測試不涉對抗攻擊。C 白盒審查只看程式碼不看模型行為。D 事後反饋屬被動且傷害已造成。
破題反射字:主動找漏洞 → Red Teaming / LLM 上線 → Prompt Injection 測試
第 7 題
某團隊訓練大型語言模型擔心模型「記憶」個別訓練樣本,導致日後推論時可能逐字複製出某筆敏感訓練資料。下列何項技術最能提供「數學可證明的隱私保證」?
(A) 擴大訓練集至十億筆以上即可讓個別樣本的影響稀釋到可忽略,無需額外技術保障。
(B) 降低訓練 Epoch 數至 1,讓模型只看過每筆樣本一次即可避免任何記憶效應。
(C) 差分隱私訓練 DP-SGD:先對每筆樣本梯度進行範數裁剪,再於聚合梯度中加入經校準的高斯雜訊,並追蹤隱私預算,以提供近似差分隱私保證。
(D) 使用 L2 正則化即可達到與差分隱私相同的效果,無需改動訓練流程。
深度導讀解析
正確答案:C
核心考點:DP-SGD 數學可證隱私
理論拆解:DP-SGD 的核心是先限制單一樣本梯度對更新方向的影響,再加入校準雜訊,使模型難以從最終參數反推出某一筆訓練資料是否存在。實務上會搭配隱私會計追蹤 ε、δ 等隱私預算。
選項坑洞掃描:A 擴大資料量無法提供數學保證。B 降 Epoch 經驗做法非可證。D L2 正則化與 DP 機制無關。
破題反射字:訓練隱私可證 → DP-SGD / 雜訊 + Clipping → (ε, δ) 保證
第 8 題
某科技公司招募模型歷史資料顯示女性應徵者比例偏低,模型對女性應徵者的預測準確率低於男性。HR 要求資料科學家緩解此模型偏見。下列何項策略最為合適?
(A) 從資料、訓練與後處理三層介入,例如重新加權少數群體樣本、補強資料代表性、調整分類閾值,並持續監控 TPR、FPR 或核准率等公平性指標。
(B) 直接從資料中刪除「性別」欄位即可完全避免偏見,模型無法看到性別自然不會歧視。
(C) 不做任何處理,交由模型自行從資料學習最佳決策邊界,干預反而可能破壞準確率。
(D) 增加整體模型參數量或採更複雜架構,以強大表達力自動解決資料偏見問題。
深度導讀解析
正確答案:A
核心考點:偏見緩解多層組合
理論拆解:偏見緩解可在前處理(reweighting、augmentation)、訓練中(fairness constraint)、後處理(閾值調整)三層介入;加上持續監控公平性指標,才是完整的偏見治理流程。
選項坑洞掃描:B 刪除性別欄位無效,因代理變數(姓名、學校、社團)仍可推論性別。C 不處理放任歷史偏見擴大。D 模型容量與偏見緩解無關。
破題反射字:偏見緩解 → 前/中/後處理組合 / 刪欄位陷阱 → 代理變數
第 9 題
某歐盟用戶依 GDPR 第 17 條提出刪除其個人資料的請求。企業初步確認該請求成立,且未適用法定保存、公共利益、研究統計等例外情形;但該用戶資料已被用於訓練內部推薦模型。下列何項企業回應最為正確?
(A) 僅需從原始資料庫刪除該用戶紀錄即可完成 GDPR 義務,已上線的模型不受遺忘權影響。
(B) 在刪除請求成立且無例外情形時,企業應刪除原始資料庫與訓練資料集中可識別該用戶的資料,並評估模型是否仍可能保留或洩漏該筆資料的影響;若風險較高,應考慮重新訓練、Machine Unlearning 或其他模型層補救措施,並保留處理紀錄。
(C) 企業無需配合此類請求,資料用於商業運作屬合法利益例外,遺忘權不適用。
(D) 企業僅需向用戶承諾「不再使用其資料」即可,口頭承諾具備 GDPR 合規效果。
深度導讀解析
正確答案:B
核心考點:GDPR 遺忘權與 ML 模型
理論拆解:GDPR 第 17 條的重點不是「只刪資料庫就一定完成」,也不是「任何情況都必須重訓模型」。較精準的做法是:先確認刪除請求是否成立、是否有例外;若成立,先刪除原始資料與訓練資料,再依模型是否可能記憶或洩漏該資料,評估是否需要模型層處理。
選項坑洞掃描:A 只刪資料庫未處理模型,潛在模型層洩漏風險仍存。C 合法利益需個案評估不是一概免責。D 口頭承諾不符 GDPR。
破題反射字:遺忘權 → 資料 + 模型雙層處理 / 模型層 → Machine Unlearning
第 10 題
某企業在歐盟導入履歷自動篩選系統,用於協助招募流程中的候選人排序與初步篩選,屬於 EU AI Act 高風險 AI 系統。法遵長整理上線前的治理與透明義務時,下列何項最為完整正確?
(A) 企業無需向使用者告知是否使用 AI 輔助決策,此為企業商業機密受法律保護。
(B) 只需在系統介面標示「本服務由 AI 輔助」即可滿足 AI Act 對高風險系統的所有透明度要求。
(C) 高風險系統需通過第三方認證但無需建立或保存任何技術文件與決策日誌供稽核。
(D) 高風險 AI 系統應建立風險管理與資料治理流程,維持技術文件與運作紀錄,提供足以讓部署者正確使用與監督系統的透明資訊,設計人工監督機制,並在法規要求下向受影響自然人告知其正受到高風險 AI 系統輔助決策影響及相關救濟權利。
深度導讀解析
正確答案:D
核心考點:EU AI Act 高風險透明度義務
理論拆解:EU AI Act 對高風險 AI 系統的要求不是只貼上「本服務由 AI 輔助」標示,而是包含風險管理、資料治理、技術文件、紀錄保存、透明資訊、人工監督、準確性與資安要求,以及必要的合格性評估。履歷篩選屬招募與就業相關高風險場景,因此上線前需從治理、文件、監督與受影響者告知等面向完整處理。
選項坑洞掃描:A AI Act 強制揭露是否使用 AI 輔助。B 介面標示僅為有限風險系統的要求層級。C 高風險系統必須維持文件與日誌。
破題反射字:高風險 AI → 完整文件 + 日誌 + 人工監督 / 揭露權 → 資料主體告知


















