🌟 核心重點一:任務類型與模型配對
任務類型 | 目標 | 常見場景 | 推薦模型 |
分類 | 預測離散類別 | 垃圾郵件、疾病診斷、客戶流失 | 決策樹、隨機森林、SVM、神經網路 |
迴歸 | 預測連續數值 | 房價預測、業績估算 | 線性迴歸、隨機森林迴歸、神經網路 |
聚類 | 自動分組 (無標籤) | 客戶分群 | K-means (球狀)、DBSCAN (雜訊多) |
降維 | 壓縮特徵 | 特徵太雜、資料視覺化 | PCA (線性)、Autoencoder (非線性) |
時序 | 序列預測 | 股價、感測器數據、語音 | RNN / LSTM / GRU、TCN、ARIMA |
🌟 核心重點二:資料規模 vs. 模型策略
資料量的多少,決定用「小刀」還是「大砲」。
- 小型資料 (數百~數千):
重點:防止過擬合 (Overfitting)。
選型:線性/邏輯迴歸、決策樹、Lasso/Ridge (正則化)。 - 中型資料 (數千~數十萬):
重點:追求表現力與運算效率的平衡。
選型:隨機森林 (RF)、XGBoost、LightGBM。 - 大型資料 (百萬級以上):
重點:發揮深度學習潛力,需支援 GPU/分散式運算。
選型:深度神經網路 (DNN/CNN/RNN)。
🌟 核心重點三:解釋性需求 (Explainability)
在金融、醫療場景,「為什麼模型這樣判斷」比「準不準」更重要!
- 高解釋性:線性迴歸、邏輯迴歸、淺層決策樹(看係數或規則就能懂)。
- 黑盒子 (低解釋性):隨機森林、梯度提升樹、深度學習。
- 補救方案:若必須使用強大但難懂的模型,需搭配技術:
SHAP:把模型的預測結果「公平分給每個特徵」,說明每個特徵貢獻多少。
LIME:在「某一筆資料附近」,用簡單模型去模仿黑盒模型來解釋結果。
PDP (偏依圖):看「某一個特徵改變時」,模型預測的平均變化趨勢。
🌟 核心重點四:運算資源與部署限制
- 邊緣運算 (IoT/手機 App): 資源有限、要求延遲低。
策略:模型剪枝、量化、小型神經網路、簡單決策樹。 - 雲端部署 (資料中心): 資源充裕。
策略:模型集成 (Ensemble)、高效能深度模型。 - 即時推論 (Real-time): 如金融交易監控、推薦系統。
策略:模型蒸餾 (Knowledge Distillation)、快取 (Caching)。
🌟 核心重點五:偏差與變異的權衡 (Bias-Variance Tradeoff)
- 偏差 (Bias) 過高 → 欠擬合 (Underfitting):模型太簡單,抓不到重點。
解決方式:
增加複雜度:把神經網路加深、改用非線性模型。
增加特徵:餵它更多有用的資訊(特徵工程)。
解放束縛:減少正則化(Regularization)的力道。 - 變異 (Variance) 過高 → 過擬合 (Overfitting):模型太複雜,連雜訊都背下來。
解決方式:
增加資料量:用更多數據來稀釋雜訊的影響。
正則化:加上 L1/L2 正則化或 Dropout,不讓它學得太專精。
簡化模型:參數少一點、模型砍一砍(剪枝)。
透過預備 iPAS AI 應用規劃師 (中級) 考試,加強 AI 知識。
※ 內容參考 iPAS 官方學習指引,由 AI 整理產製














