當真詐騙太少,AI 反而更容易搞錯
詐騙在資料中,是極端低頻事件。
根據金融機構內部數據,詐騙交易常佔整體交易不到 0.1%,甚至更少。也就是說,在 10 萬筆交易中,可能只有不到 100 筆是詐騙。
這類問題在 AI 領域被稱為:
⚠️「類別不平衡問題(Class Imbalance)」
⚠️ 或稱「罕見事件偵測(Rare Event Detection)」
✅ 為什麼模型遇上詐騙反而「越聰明越錯」?
❶ 「準確率」反而成為陷阱
讓我們用一個簡單的例子:
假設 10 萬筆交易裡只有 100 筆是詐騙,其他都是正常的。你做了一個模型,乾脆什麼都不做,全部標示為「正常」。那麼你模型的「準確率」就是 99.9%!看起來超棒,實際上卻是什麼都沒做。
📌 這就是「準確率陷阱」:在不平衡資料下,準確率無法反映模型好壞。
❷ 多偵測 ≠ 模型就有價值
有些模型會傾向於提高召回率(Recall),「多標一點有嫌疑的都抓起來」。但這樣會產生什麼後果?
💥 每抓到 1 個詐騙犯,誤殺了 50 個好人💥 交易被誤攔、帳戶被凍結、客服大排長龍
這樣的模型可能在報表上看起來很猛,但實際應用中會引發信任崩潰、客訴爆炸,甚至用戶出走。
📌 詐騙的本質是「低頻但高衝擊」,所以模型判錯的每一筆,都可能是一次品牌傷害。
✅ 該怎麼設計模型來處理「罕見事件」?
要在資料中精準抓到詐騙這種低頻事件,我們必須拋棄傳統分類思維,採取更精準的技術與策略。
📍 1. 用對評估指標:別再只看準確率!
取而代之,應該使用這些更能反映「罕見事件效果」的指標:
Precision(精確率) 被你標為詐騙的有多少是真的? 降低誤殺正常人
F1 分數 Precision 和 Recall 的平衡值 找到最佳權衡點
AUC-PR 曲線 精確率與召回率的整體表現 特別適合極不平衡資料集
✅ 重點是:不要追求「看起來好看」,要追求「真實世界有效」。
📍 2. 強化資料處理策略
原始資料中詐騙樣本太少,模型學不到詐騙的樣態。這時候就要做資料上的強化處理。
🧪 技術方法包括:
Oversampling(過取樣) 增加詐騙樣本數,如 SMOTE、ADASYN
Undersampling(欠取樣) 刪減正常樣本數量,平衡比例
Class Weighting(類別加權) 在模型中給詐騙樣本更高懲罰權重
Anomaly Detection(異常偵測) 改用無監督學習,找出異常點
這些方法的目標不是讓模型「看起來更準」,而是讓模型學會注意到小概率事件中的異常細節。
📍 3. 多層次模型設計(分級偵測)
為避免誤殺率太高,可以採用「兩層模型架構」:
- 第一層:快速偵測可疑交易,濾出少數高風險樣本
- 第二層:更精細模型進一步分析,降低誤判率
這就像是機場安檢:先初篩,再細查,不會所有人都被搜身,但也不會漏掉危險人物。
📍 4. 設計「人機協作流程」
罕見事件的判定很難完全自動化,因為人類的行為太有彈性、太難定義。
→ 所以 AI 應該是輔助判斷的工具,而不是唯一的裁判者。
建議機制:
低風險(<60%) 放行交易,但持續監控
✅ 實戰關鍵:不是「抓越多越好」,而是「少誤判又能防堵」
🎯 一個好的模型,不是偵測得多,而是「抓得對」、「攔得巧」。
這意味著:
- 必須對模型評估方式進行轉換(從準確率轉向精確率/召回率)
- 需要精細地處理樣本比例與模型權重
- 最終結合人力(人機協作),讓 AI 變成助理,而不是誤判機器