📚 iPAS AI 應用規劃師(中級):快速重點整理 - 科目三 - L23303 模型訓練、評估與驗證

cici-avatar-img
發佈於AI
更新 發佈閱讀 5 分鐘

🟢 重點一:資料分割與訓練策略(穩定度)

在模型訓練時,資料的分配與更新方式決定了收斂速度。

1. 三大資料集角色(不可混淆)

  • 訓練集 (Training Set):負責「學習」,調整模型內部參數(Weights)。
  • 驗證集 (Validation Set):負責「挑選」,用來調整超參數(如學習率)與執行 Early Stopping
  • 測試集 (Test Set):負責「最終審判」,模擬部署後的真實表現。

2. 梯度下降策略對比

策略

特色

優點

缺點

全量訓練 (Batch)

一次餵全部資料

方向穩定、路徑平滑

極度吃記憶體、速度慢;數據量過大時會導致 OOM (記憶體溢出),且容易卡在局部平原或極小值。

隨機下降 (SGD)

一次餵 1 筆

適合線上學習、速度快

震盪大、難收斂;GPU 優勢在批次矩陣運算,單筆餵入造成 GPU 閒置。

小批次 (Mini-batch)

目前主流

兼顧穩定與效率

需額外調校 Batch Size;開發者需在「硬體顯存限制」與「訓練收斂穩定度」之間,反覆測試以尋找最佳平衡點。


📈 重點二:分類任務評估指標

1. 核心指標公式

  • 準確率 (Accuracy) = (TP + TN) / 全部資料(預測正確的比例)
  • 精確率 (Precision) = TP / (TP + FP)(預測正類中,有多少是真的?怕誤報
  • 召回率 (Recall) = TP / (TP + FN)(實際正類中,抓到了多少?怕漏報
  • F1-Score = 2 × (Precision × Recall) / (Precision + Recall)(Precision 與 Recall 失衡時的綜合指標)

2. 情境選擇題解題關鍵

  • 場景 A:醫療診斷、詐騙偵測、零件缺陷Recall 是首選(絕對不能漏掉任何一個病人/壞人)。
  • 場景 B:廣告投放、垃圾郵件過濾Precision 是首選(不想打擾到沒興趣的客戶)。

📉 重點三:迴歸任務指標(誤差敏感度)

  • MSE (均方誤差):誤差平方後平均。因為有平方,會極度放大離群值(Outliers)的影響。
  • MAE (平均絕對誤差):誤差取絕對值。對異常值較穩健(Robust)
  • R2 (決定係數):衡量模型解釋資料變異的能力。
    • R2 = 1:神準。
    • R2 = 0:跟猜平均值沒兩樣。
    • R2 < 0:模型歪掉。

🔄 重點四:交叉驗證 (Cross-Validation)

當資料量不夠大,或者想確保模型穩定度時使用。

  1. K-fold:資料切 K 份,輪流當驗證集。
  2. Stratified K-fold (分層 K 折):劃分時保持類別比例不變。看到「類別不均」可以選它。
  3. LOOCV (留一法):K = n(總樣本數),每次只留一筆驗證。精確但運算成本極高。

⚠️ 常見誤解區

1. 關於 Early Stopping(早停)

誤解:一旦訓練集(Training Set)的誤差不再下降就停止。
正確:應監控驗證集 (Validation) 的效能。當驗證集效能開始變差,代表模型開始「死背」訓練資料(過擬合),這才是停止點。

2. 關於類別不平衡 (Imbalance)

當樣本比例(如 99:1)嚴重懸殊時:

  • 別用 Accuracy,會產生假象。
  • 請使用 SMOTE (過採樣):SMOTE 是透過「插值法」生成合成樣本,比單純複製更能減少過擬合風險(註:合成樣本可能使特徵重要性失真,降低可解釋性)。
  • 或調整 Class Weights (類別權重),給少數類別更高的處罰分。

3. 關於 R2 的限制

誤解:可以直接拿兩個不同資料集的 R2 來比較模型優劣。
正確:R2 會受資料分佈影響,不同資料集間的 R2 無法直接對比。


透過預備 iPAS AI 應用規劃師 (中級) 考試,加強 AI 知識。
※ 內容參考 iPAS 官方學習指引,由 AI 整理產製

留言
avatar-img
喬西的數位跨域日常
0會員
26內容數
AI / 行銷 / 程式 / 設計 / 管理 / 閱讀
2026/05/06
🌟 核心重點一:任務類型與模型配對 任務類型 目標 常見場景 推薦模型 分類 預測離散類別 垃圾郵件、疾病診斷、客戶流失 決策樹、隨機森林、SVM、神經網路 迴歸 預測連續數值 房價預測、業績估算 線性迴歸、隨機森林迴歸、神經網路 聚類 自動分組 (無標籤) 客戶分群
Thumbnail
2026/05/06
🌟 核心重點一:任務類型與模型配對 任務類型 目標 常見場景 推薦模型 分類 預測離散類別 垃圾郵件、疾病診斷、客戶流失 決策樹、隨機森林、SVM、神經網路 迴歸 預測連續數值 房價預測、業績估算 線性迴歸、隨機森林迴歸、神經網路 聚類 自動分組 (無標籤) 客戶分群
Thumbnail
2026/05/05
🌟 核心觀念一:資料清理 (Data Cleaning) ── 模型的地基 資料清理是所有特徵工程的第一步,沒有乾淨的資料,就沒有準確的模型。這部分的考點通常落在「如何根據情境選擇處理方式」。 缺失值處理 (Missing Values): 刪除法 (Deletion): 只有在缺失比例極低
Thumbnail
2026/05/05
🌟 核心觀念一:資料清理 (Data Cleaning) ── 模型的地基 資料清理是所有特徵工程的第一步,沒有乾淨的資料,就沒有準確的模型。這部分的考點通常落在「如何根據情境選擇處理方式」。 缺失值處理 (Missing Values): 刪除法 (Deletion): 只有在缺失比例極低
Thumbnail
2026/05/04
深度學習是機器學習的子領域,透過多層神經網路自動學習高維資料的抽象表示。 1. 神經網路的基本組成與激勵函數 神經網路透過層級運算機制來模擬資料模式。 激勵函數 (Activation Function): 引入「非線性」,使模型能處理複雜特徵。 ReLU: 目前最主流,解決梯度消失問題,數
Thumbnail
2026/05/04
深度學習是機器學習的子領域,透過多層神經網路自動學習高維資料的抽象表示。 1. 神經網路的基本組成與激勵函數 神經網路透過層級運算機制來模擬資料模式。 激勵函數 (Activation Function): 引入「非線性」,使模型能處理複雜特徵。 ReLU: 目前最主流,解決梯度消失問題,數
Thumbnail
看更多