🎯 資料偏誤三類常見來源
- 來源偏誤 (Source Bias) →「收不夠、分配不均」
說明:抽樣樣本無法代表母體,代表性不足。
舉例:訓練自駕車,結果只收集了「都市」的數據,到了「鄉下」就不會開了。
- 內容偏誤 (Content Bias) →「資料本身就有偏見」
說明:反映了人類社會現有的刻板印象或系統性歧視。
舉例:如果資料庫裡,主管都是男性、護理師都是女性,模型直接「學偏」。
- 製程偏誤 (Process Bias) →「標註過程有偏差」
說明:人工標註過程帶入的主觀判斷,標準不一致。
舉例:不同標註員對同一句話的「情緒正負面」標準不一。
🎯 去偏三大技術
- 前處理 (Pre-processing) = 訓練前
做什麼:從「源頭」把資料洗乾淨。
關鍵字:重抽樣、重新加權、特徵修正、資料平衡化。
- 內部處理 (In-processing) = 訓練中
做什麼:改變演算法的學習方式,逼它公平。
關鍵字:公平性約束、對抗式去偏 (Adversarial)、調整損失函數 (Loss)。
- 後處理 (Post-processing) = 訓練後
做什麼:模型已經練好,我們直接「微調輸出的結果」。
關鍵字:閾值調整 (Threshold)、結果校準 (Calibration)。
💡【補充區:兩大公平性評估工具比較】
IBM AIF360 | Microsoft Fairlearn | |
快速記憶 | 功能完整,適合深入分析 | 容易導入,適合企業實務 |
主要功能 | 評估完整,提供前/中/後處理去偏方法 | 公平性評估強,並提供再訓練與閾值調整等去偏方法 |
sklearn 整合 | 普通 | 高 |
優點 | 指標多、方法完整 | 易上手、導入快 |
限制 | 較複雜、整合成本高 | 去偏方法較少 |
適合情境 | 研究、高風險治理 | 一般企業專案 |
關鍵字 | 完整型、三階段去偏 | 實務型、整合方便 |
🎯 易混淆名詞
🥊 PART 1:公平性指標怎麼選?
1. 群體平等率 (Demographic Parity) =【結果均等的「齊頭式平等」】
說明:不管實力如何,A 族群跟 B 族群拿到「正向結果比例」(例如錄取率)相同或接近,不直接考慮真實資格差異。
缺點:為了湊滿各族群的人數比例,很容易犧牲模型準確性,導致選到不適任的人。
2. 機會平等 (Equal Opportunity) =【只看真材實料的「實力平等」】
說明:在「真的有實力/有資格」的人當中,各群體被選上的機率要一樣。確保優秀的人,絕對不會因為群體身分被刷掉。
關鍵字:關注 True Positive Rate (TPR,真陽性率) 相等。
3. 均衡機率 (Equalized Odds) =【連「看錯」的機率都要公平】
說明:「機會平等」的嚴格升級版!不但「有實力的人」被選中的機率要一樣,連「沒有實力的人」被模型誤判選上的機率,兩個族群也要一樣。
關鍵字:同時要求 TPR (真陽性率) 與 FPR (偽陽性率) 兩者都要相等。
4. 不利影響比 (Disparate Impact) =【80% 法則】
說明:實務上常作初步合規檢查。
公式:不利影響比(DI)=較低群體選取率 ÷ 較高群體選取率;若比值 < 0.8,代表可能有差別影響風險。
計算題練習:
→ 題目:如果問「男性錄取率 10%,女性錄取率 7%」,請問有沒有違反?
→ 計算:7% ÷ 10% = 70%。因為 70% 小於 80%,因此可能存在差別影響風險,需進一步審查。
常見情境:例如招募 AI、貸款審核、學校錄取、人臉辨識等,都常被拿來檢查是否對弱勢族群不利。
🥊 PART 2:後處理的兩種方法
- 閾值調整 (Threshold):直接改「及格線(判定標準)」
概念:「及格線」配合不同人而移動。
舉例:A 組考卷較簡單 60 分及格,B 組考卷較難,為了降低不公平,改成 55 分及格。
- 結果校準 (Calibration):及格線不動,讓模型分數對應真實機率(機率校準)
概念:「分數」 被修正回正確的意義。
舉例:統一及格線為 60 分(不動)。B 組考卷較難,考 55 分的學生實際上具備較高的實力(其「原始分數」的含金量被低估)。為了公平,我們將 B 組考 55 分的學生分數「校準(加權)」為 60 分。
💣 常見誤解與陷阱
- 誤解一:移除敏感特徵(如性別、種族)就能消除偏見?
→ 模型會從 代理變數 (Proxy Variables) 偷學。例如刪了種族,模型會從「郵遞區號」推算出種族,偏見依然存在!
- 誤解二:公平性與模型準確度可以兼得?
→ 實務上兩者常存在 Trade-off (權衡),但非必然衝突。為了達成公平性約束,往往需要犧牲一部分的整體預測準確率。
- 誤解三:只要用真實發生的歷史數據來訓練,就不會有偏見
→ 歷史數據常包含人類社會的系統性歧視(內容偏誤),直接餵給模型只會「自動化並放大」這些歧視。
- 誤解四:AI 公平性純粹是「技術問題」
→ AI 公平性不只是技術問題,缺少跨部門委員會、第三方獨立驗證與 KPI/ESG 結合,技術去偏只是治標不治本。
透過預備 iPAS AI 應用規劃師 (中級) 考試,加強 AI 知識。
※ 內容參考 iPAS 官方學習指引,由 AI 整理產製
















