高科技為何讓好人受害?從資料到設計,4 大迷思解析
在這個詐騙手法日新月異的時代,銀行與金融機構導入 AI 模型來「偵測詐騙」看起來是理所當然的進化方向。但諷刺的是,許多民眾的真實經驗卻是:
🔒 好端端的帳戶突然被鎖
💸 緊急轉帳卻無法完成
📞 客服打不進、申訴無門
原本應該是守護資產的科技,怎麼反而成了困擾與民怨的來源?
問題不在 AI 本身,而在於我們怎麼設計、訓練與使用這些 AI 系統。本文將揭開其中的 4 大盲點,帶你了解:為什麼 AI 模型在打詐時會「誤傷好人」?
- AI 用「平均行為」去判斷「每一個人」
AI 模型是靠「過去的資料」來學習什麼是正常、什麼是異常。然而,人類的行為本來就五花八門,尤其在金融領域,不同年齡、職業、家庭背景的人有著截然不同的資金流動模式。
🧠 生活案例:
‧阿嬤每個月轉10萬元給在國外唸書的孫子
‧小資族習慣用行動支付,每次交易不到 500 元
這兩種行為都很正常。但如果模型只學到了小資族的行為,就會誤把阿嬤的匯款當詐騙處理。
📌 問題在於:AI 不知道「這是阿嬤」還是「這是詐騙犯」,它只知道「這個行為不像別人」。
✅ 解法關鍵:
訓練模型前,先進行客戶分群(segmentation),根據年齡、職業、資產型態與歷史行為,定義「每一群人的正常」,才能做出更合理的判斷。 - 模型黑箱,使用者不知道自己「哪裡異常」
目前許多 AI 模型採用的是「黑箱式演算法」,意思是它可以給出判斷(例如「這筆交易可疑」),但卻無法說出「為什麼」。
❌ 使用者常常只會收到一個簡訊:「因系統偵測異常,暫停交易,請聯絡客服。」
對一般民眾來說,這不是「防詐科技」,而是「被科技懷疑」。
沒說明、沒解釋、沒選擇權,久而久之,民眾對銀行的信任就會瓦解。
📌 AI 判錯一次,是使用者跑一次分行的成本;判錯兩次,是使用者把錢轉去別家銀行的理由。
✅ 解法關鍵:
‧使用可解釋模型(Explainable AI),提供簡明理由
‧設計清楚的提示與處理流程,讓民眾知道該怎麼做、可以怎麼解釋 - 高準確率 ≠ 對每一個人公平
銀行常說:「我們的 AI 模型準確率高達 99%!」
乍看很厲害,但如果詐騙案件只佔 0.1%,那麼模型即使完全沒抓到詐騙,也可以達到 99.9% 的準確率。
而實際上,若一個模型能多抓到 3 筆詐騙,但代價是誤攔 300 筆正常交易,這真的值得嗎?
🧠 想像你在機場安檢,被選中「隨機搜查」一次就很煩;
如果每次飛機都被當成嫌疑人,會不會懷疑這個系統設計本身就有問題?
📌 模型好不好,不能只看準確率,還要看「誤判率」與「對使用者造成的摩擦」。
✅ 解法關鍵:
‧使用混淆矩陣來評估模型的真正表現(包括誤殺率、漏網率)
‧設定合理的閾值與彈性機制,避免「一刀切」 - 忽略現場使用流程,科技變成「麻煩製造機」
模型可以判定一筆交易異常,但接下來該怎麼處理?很多設計並沒有考慮到:
€ 使用者能不能自助恢復帳戶?
€ 客服是否知道 AI 判斷依據?
€ 這樣的設計會不會讓客服工作量爆炸?
❌ 許多民怨來自於:交易被擋後,用戶不知道該怎麼解決,客服也只會說「系統判定異常,請見諒」。
📌 科技的進步如果沒有搭配流程設計與人性考量,只會放大摩擦,而不是解決問題。
✅ 解法關鍵:
‧ 設計「風險分級處理」機制(高風險阻擋、中風險提示、低風險監控)
‧提供簡便的人工/自助處理流程
‧確保不同部門(AI、客服、法遵)對模型有一致理解與應對機制※ 總結:AI 能打詐,也可能「打錯人」——關鍵在設計
AI 的潛力不可否認,但它不是萬靈丹,特別是在像「詐騙」這樣行為隱蔽、樣態多變、比例極低的領域,更需要謹慎設計。
🤖 模型必須聰明,但也要公平;決策必須精準,但也要可理解;保護使用者,更不能犧牲使用者。
✅ 下一篇,我們將進一步分析:
👉 為什麼詐騙這類「偶發事件」,會讓模型變得難以預測?又該如何調整 AI 設計策略?