第 1 題
某銀行信用評分模型使用「郵遞區號」做 Target Encoding,將類別替換為該區歷史違約率。驗證集 AUC 達 0.88,但上線後降至 0.71。資料科學家檢查後發現,編碼值是在切分交叉驗證前用全訓練資料一次算好。下列修正何者最能對症下藥?
(A) 將郵遞區號由 3 碼改成 6 碼,讓模型取得更細的地理區域差異。
(B) 改用 Label Encoding 把郵遞區號轉成整數,避免平均違約率波動。
(C) 完全移除郵遞區號,改用不含任何類別特徵的模型重新訓練。
(D) 改用 OOF Target Encoding,並對低頻類別加入全域平均平滑。
深度導讀解析
正確答案:D
核心考點:Target Encoding 避免目標洩漏
理論拆解:Target Encoding 若先用全資料計算,會把驗證折的目標資訊倒灌進特徵。OOF 編碼只用其他折計算目前折的編碼,平滑化可降低低頻類別極端值。
選項坑洞掃描:A 會增加低頻類別與過擬合風險。B Label Encoding 引入偽順序。C 可能放棄有效地理訊號。
破題反射字:Target Encoding 洩漏 → OOF / 低頻類別 → 平滑化
第 2 題
某銀行詐欺偵測模型輸出交易風險機率,預設以 0.5 作為分類閾值。上線試算後 Recall 只有 40%,大量詐欺被漏過;但調低閾值又會增加警報量,超出人工審查負荷。風控主管要求兼顧漏報風險與每日案件處理量,並留下可稽核的閾值選擇依據。下列閾值調整策略何者最合適?
(A) 用驗證集曲線比較各閾值,依 Recall 下限與警報量上限選擇。
(B) 固定使用 0.5 閾值,確保所有模型都能用相同標準比較。
(C) 只選 Accuracy 最高的閾值,因為整體正確率最高就代表最適合上線運作。
(D) 只選 ROC-AUC 最高的模型,不需再依警報量與人力限制調整閾值。
深度導讀解析
正確答案:A
核心考點:分類閾值依業務限制選擇
理論拆解:閾值是業務決策點,不是固定技術常數。詐欺偵測需在漏報成本與警報人力間取捨,應在驗證集上比較不同閾值的 Recall、Precision 與警報量。
選項坑洞掃描:B 忽略不平衡資料與任務成本。C Accuracy 會被多數類誤導。D AUC 是排序指標,不能取代上線閾值設定。
破題反射字:詐欺閾值 → PR 曲線 / 業務限制 → Recall 與警報量
第 3 題
某電商推薦模型需調整 learning rate、樹深、subsample、colsample 與正則化等多個超參數。若每個維度都做完整 Grid Search,組合數會快速爆炸,單次訓練又需 10 分鐘,計算預算無法支撐。下列策略何者最合適?
(A) 將每個維度縮到 3 個候選值,仍完整跑完所有 Grid Search 組合。
(B) 放棄超參數調整,直接使用套件預設值,避免任何額外計算成本。
(C) 改用隨機搜尋或貝氏最佳化,以較少試驗探索高潛力組合。
(D) 只調整 learning rate,其餘超參數固定,避免模型搜尋空間過大。
深度導讀解析
正確答案:C
核心考點:高維超參數搜尋策略
理論拆解:高維超參數空間下,Grid Search 成本高且效率差。Random Search 在高維常較有效;Bayesian Optimization 可用過去試驗結果引導下一組參數。
選項坑洞掃描:A 縮小 Grid 仍可能成本過高。B 預設值不一定合適。D 忽略超參數交互作用。
破題反射字:Grid 爆炸 → Random Search / 高成本搜尋 → 貝氏最佳化
第 4 題
某醫學資料團隊有 5,000 筆病患資料,用於預測疾病風險。資料中陽性比例偏低,且部分病患可能有多次就診紀錄。資料科學家要設計交叉驗證,以估計模型泛化能力並避免資料切分造成偏差。院方也要求評估結果可供倫理審查追溯,並避免同一病患資料外洩到驗證折。下列做法何者最合適?
(A) 採 1-Fold,也就是直接用全部訓練資料評估模型表現。
(B) 採 5 或 10 折;不平衡用分層切分,同病患紀錄用群組切分。
(C) 採 1000-Fold,因為 K 越大一定越穩定,計算成本不需考量。
(D) 不做交叉驗證,只用一次 80/20 train/test 切分作為最終泛化估計。
深度導讀解析
正確答案:B
核心考點:K-Fold、Stratified K-Fold 與 Group K-Fold
理論拆解:5 或 10-fold 是常見平衡選擇。類別不平衡時需維持類別比例;同一病患多筆資料時,要避免同病患資料同時進訓練與驗證。
選項坑洞掃描:A 等同用訓練集評估。C K 過大不一定更適合且成本高。D 單次切分估計不穩定,也可能切出偏差。
破題反射字:不平衡 → Stratified / 同病患多筆 → Group
第 5 題
某醫院導入癌症篩檢 AI,同時資訊部門也維護垃圾郵件過濾模型。主管詢問資料科學家,為何兩種分類任務不能只用同一個評估指標。團隊需依漏判與誤判成本選擇指標,並向醫師與資訊主管說明取捨。若指標選錯,可能造成病患漏診或重要郵件被誤刪。下列說明何者最正確?
(A) 癌症篩檢重視 Recall,垃圾郵件過濾重視 Precision。
(B) 兩種任務都應只看 Accuracy,因為整體正確率最高就代表部署風險最低。
(C) 兩種任務都應只看 Recall,因為任何場景中漏掉正類都比誤判更嚴重。
(D) 兩種任務都應只看 Precision,因為任何場景中誤判正類都比漏掉更嚴重。
深度導讀解析
正確答案:A
核心考點:指標選型依錯誤成本決定
理論拆解:評估指標要對應錯誤成本。癌症篩檢漏診成本高,重視 Recall;垃圾郵件誤殺正常信成本高,重視 Precision。
選項坑洞掃描:B Accuracy 在不平衡任務下常誤導。C 與 D 都把單一指標套用到所有場景,忽略業務成本差異。
破題反射字:漏診昂貴 → Recall / 誤殺昂貴 → Precision
第 6 題
某金融團隊比較兩個二元分類模型,模型 A 的 AUC-ROC 為 0.89、模型 B 為 0.76。主管看到模型 B 在某個高 Precision 運作點仍有可用 Recall,想先釐清 AUC 的統計意義,避免只看單一閾值就下結論。資料科學家應如何回答最正確?
(A) AUC 就是 Accuracy 的別名,兩者都表示固定閾值下的整體分類正確率。
(B) AUC 只在正負樣本完全平衡時才有意義,不平衡資料上不能參考。
(C) AUC 是 ROC 曲線下面積,表示模型對正負樣本分數排序的整體能力。
(D) AUC 越低代表模型越優秀,因此應優先選擇接近 0 的模型上線。
深度導讀解析
正確答案:C
核心考點:AUC-ROC 的排序意義
理論拆解:ROC-AUC 衡量所有閾值下的排序能力,可理解為正樣本分數高於負樣本的機率傾向。它不是 Accuracy,也不是固定閾值表現。
選項坑洞掃描:A 混淆 AUC 與 Accuracy。B 誤解 AUC 適用性。D 把 AUC 方向完全顛倒。
破題反射字:ROC 下面積 → 排序能力 / 閾值無關 → AUC
第 7 題
某資深工程師向新進同事說明 Dropout。團隊目前的深度模型在訓練集表現很好,但驗證集表現不穩,懷疑神經元過度共適應。專案要求在不大幅改架構的情況下降低過擬合風險,且需釐清訓練與推論階段的差異。下列對 Dropout 原理與訓練/推論差異的描述何者最正確?
(A) Dropout 會增加大量可訓練參數,因此能直接提升模型容量。
(B) Dropout 只在推論階段啟用,訓練時應關閉以確保模型穩定收斂。
(C) Dropout 會阻斷梯度傳遞,因此實務上應避免用於深度網路。
(D) 訓練隨機丟棄神經元;Inverted Dropout 訓練補償,推論關閉。
深度導讀解析
正確答案:D
核心考點:Dropout 與 Inverted Dropout 機制
理論拆解:Dropout 在訓練時隨機將部分輸出設為 0,降低神經元過度共適應。常見 Inverted Dropout 是訓練時除以保留率補償期望值,推論時直接關閉,不再縮放。
選項坑洞掃描:A Dropout 沒有大量可訓練參數。B 訓練與推論階段顛倒。C Dropout 是常見正則化,不是阻斷所有梯度。
破題反射字:訓練隨機丟棄 → Dropout / 推論關閉 → Inverted Dropout
第 8 題
某深度網路訓練初期 loss 下降緩慢,中期又常震盪。工程師考慮在卷積層或全連接層後加入 Batch Normalization,希望穩定每層輸入尺度,讓訓練對初始化與學習率較不敏感。團隊也希望維持可解釋的訓練設定,方便後續調參紀錄。下列描述何者最正確?
(A) BN 會讓參數量暴增到不可訓練規模,因此多數深度模型應避免使用。
(B) BN 用 batch 統計量標準化中間輸入,再以 γ、β 調整。
(C) BN 主要用來增加過擬合,因此只適合資料量極大的模型。
(D) BN 只能放在輸入層,放在中間層會破壞網路的收斂。
深度導讀解析
正確答案:B
核心考點:Batch Normalization 機制
理論拆解:BN 會用 batch 均值與標準差標準化中間表示,再透過 γ、β 學回合適尺度。它常改善優化穩定性、加速收斂,並有輕度正則效果。
選項坑洞掃描:A γ、β 只增加少量參數。C BN 通常不以增加過擬合為目的。D BN 常放在中間層,而非只限輸入層。
破題反射字:標準化 + γβ → BN / 訓練不穩 → 優化穩定
第 9 題
某團隊訓練影像分類模型,前 30 epoch 快速收斂,但之後 loss 開始震盪,驗證表現也停滯。工程師判斷模型仍有改善空間,想調整學習率排程,使前期能快速探索,後期能穩定精調。產品時程也要求避免重新設計模型架構,只先調整訓練策略。下列策略何者最合適?
(A) 採用學習率衰減策略,讓訓練後期更新幅度更加穩定些。
(B) 全程固定維持最大學習率 0.1,讓模型持續保持快速探索狀態。
(C) 全程固定維持最小學習率 1e-6,確保每一步更新都足夠保守。
(D) 每個 iteration 隨機抽一個學習率,讓隨機性取代訓練排程設計。
深度導讀解析
正確答案:A
核心考點:學習率衰減策略
理論拆解:前期較大學習率有利快速探索,後期衰減可降低震盪並精調。Step Decay、Cosine Annealing、ReduceLROnPlateau 都是常見策略。
選項坑洞掃描:B 後期可能持續震盪。C 前期收斂過慢。D 隨機學習率不能取代有設計的排程。
破題反射字:後期震盪 → 學習率衰減 / 快速探索後 → 小步精調
第 10 題
某新創團隊缺乏資深 ML 工程師,需在兩週內為客戶建立銷售預測基線模型。CTO 考慮導入 AutoML 平台,希望快速比較模型與前處理組合,但仍需向客戶說明模型限制。客戶也要求交付資料切分與評估指標說明。下列對 AutoML 適用邊界的描述何者最正確?
(A) AutoML 導入後可完全取代資料科學家,資料切分與指標選擇也不需人工確認。
(B) AutoML 可快速建立基線,但仍需人工檢查資料、洩漏與指標。
(C) AutoML 一定比人工調參更好,因此高度客製化任務也應完全交給平台處理。
(D) AutoML 只能處理分類任務,迴歸、時間序列與影像任務都不能使用。
深度導讀解析
正確答案:B
核心考點:AutoML 適用邊界
理論拆解:AutoML 適合快速建立 baseline、比較模型與前處理流程,但不是全自動保證正確。資料洩漏、切分方式、評估指標、領域限制仍需人工審查。
選項坑洞掃描:A 過度宣稱 AutoML 萬能。C 絕對化地說一定更好。D 錯把 AutoML 限縮為只支援分類。
破題反射字:快速基線 → AutoML / 資料與指標 → 人工把關


















