🟢 重點一:資料分割與訓練策略(穩定度)
在模型訓練時,資料的分配與更新方式決定了收斂速度。
1. 三大資料集角色(不可混淆)
- 訓練集 (Training Set):負責「學習」,調整模型內部參數(Weights)。
- 驗證集 (Validation Set):負責「挑選」,用來調整超參數(如學習率)與執行 Early Stopping。
- 測試集 (Test Set):負責「最終審判」,模擬部署後的真實表現。
2. 梯度下降策略對比
策略 | 特色 | 優點 | 缺點 |
全量訓練 (Batch) | 一次餵全部資料 | 方向穩定、路徑平滑 | 極度吃記憶體、速度慢;數據量過大時會導致 OOM (記憶體溢出),且容易卡在局部平原或極小值。 |
隨機下降 (SGD) | 一次餵 1 筆 | 適合線上學習、速度快 | 震盪大、難收斂;GPU 優勢在批次矩陣運算,單筆餵入造成 GPU 閒置。 |
小批次 (Mini-batch) | 目前主流 | 兼顧穩定與效率 | 需額外調校 Batch Size;開發者需在「硬體顯存限制」與「訓練收斂穩定度」之間,反覆測試以尋找最佳平衡點。 |
📈 重點二:分類任務評估指標
1. 核心指標公式
- 準確率 (Accuracy) = (TP + TN) / 全部資料(預測正確的比例)
- 精確率 (Precision) = TP / (TP + FP)(預測正類中,有多少是真的?怕誤報)
- 召回率 (Recall) = TP / (TP + FN)(實際正類中,抓到了多少?怕漏報)
- F1-Score = 2 × (Precision × Recall) / (Precision + Recall)(Precision 與 Recall 失衡時的綜合指標)
2. 情境選擇題解題關鍵
- 場景 A:醫療診斷、詐騙偵測、零件缺陷 → Recall 是首選(絕對不能漏掉任何一個病人/壞人)。
- 場景 B:廣告投放、垃圾郵件過濾 → Precision 是首選(不想打擾到沒興趣的客戶)。
📉 重點三:迴歸任務指標(誤差敏感度)
- MSE (均方誤差):誤差平方後平均。因為有平方,會極度放大離群值(Outliers)的影響。
- MAE (平均絕對誤差):誤差取絕對值。對異常值較穩健(Robust)。
- R2 (決定係數):衡量模型解釋資料變異的能力。
- R2 = 1:神準。
- R2 = 0:跟猜平均值沒兩樣。
- R2 < 0:模型歪掉。
🔄 重點四:交叉驗證 (Cross-Validation)
當資料量不夠大,或者想確保模型穩定度時使用。
- K-fold:資料切 K 份,輪流當驗證集。
- Stratified K-fold (分層 K 折):劃分時保持類別比例不變。看到「類別不均」可以選它。
- LOOCV (留一法):K = n(總樣本數),每次只留一筆驗證。精確但運算成本極高。
⚠️ 常見誤解區
1. 關於 Early Stopping(早停)
誤解:一旦訓練集(Training Set)的誤差不再下降就停止。
正確:應監控驗證集 (Validation) 的效能。當驗證集效能開始變差,代表模型開始「死背」訓練資料(過擬合),這才是停止點。
2. 關於類別不平衡 (Imbalance)
當樣本比例(如 99:1)嚴重懸殊時:
- 別用 Accuracy,會產生假象。
- 請使用 SMOTE (過採樣):SMOTE 是透過「插值法」生成合成樣本,比單純複製更能減少過擬合風險(註:合成樣本可能使特徵重要性失真,降低可解釋性)。
- 或調整 Class Weights (類別權重),給少數類別更高的處罰分。
3. 關於 R2 的限制
誤解:可以直接拿兩個不同資料集的 R2 來比較模型優劣。
正確:R2 會受資料分佈影響,不同資料集間的 R2 無法直接對比。
透過預備 iPAS AI 應用規劃師 (中級) 考試,加強 AI 知識。
※ 內容參考 iPAS 官方學習指引,由 AI 整理產製


