Meta Ray Ban 智慧眼鏡外包審查員看光私密影像 遭集體訴訟指控侵犯隱私 - 來自癮科技
科技進步總是伴隨著便利,但便利的背後往往貼著隱形的標籤。近期,Meta 與 Ray-Ban 聯名的智慧眼鏡捲入了一場集體訴訟。指控指出,原本應由 AI 處理的影像資訊,實際上卻被大量外包的「真人審查員」看光,其中甚至包含衛浴、性愛等極度私密的影像。這不僅是技術問題,更是一場關於法律與道德信任的崩潰。
隱私承諾與現實的巨大落差
這起事件揭露了智慧穿戴裝置的一個暗處:「功能」與「隱私」的對價陷阱。當我們享受 AI 帶來的即時語音問答、場景辨識時,我們實際上是在拿自己的「視野」換取服務。然而,這次訴訟帶來的衝擊力,來自於受害者視角的共情。當我們發現所謂的「隱私保護」,在「隱藏條款」與資訊不對稱的包裝下,竟然是讓遠在天邊的人類承包商觀看自己的私人生活,這種衝擊遠大於冰冷的數據外洩。
那些被隱藏的假設
- 運算能力的瓶頸: 目前強大的 AI 模型仍難以在輕薄的眼鏡本機上完成複雜運算,必須依賴雲端資料中心。
- 降低「幻覺」的代價: 為了減少 AI 亂編答案,人工外包審查標記數據仍是目前的「必要惡」。
- 商業考量的策略: Meta 假設若明確告知「有人類在看你的影像」,將會嚴重打擊產品銷量,因此選擇模糊處理。
- 隱私定義的灰色地帶: 科技巨頭可能隱約假設「只要是為了訓練 AI,觀看資料就不算侵犯隱私」。
報導可能存在的認知偏誤
這類新聞的敘事方式,也值得我們保持一些反思距離:
- 以偏概全:報導中的幾個極端案例(如廁、性行為),固然衝擊力十足,但這些畫面究竟在所有被審閱的影像中占多大比例?整體用戶的使用情境,是否真的普遍如此?
- 可得性偏誤:當我們看到「真人看過我的隱私畫面」這樣的標題,大腦很容易將「被看見」直接連結到「遭到洩漏、監控、勒索」等後果。但這條因果鏈是否真的成立,需要更多數據佐證,而不是依賴生動案例帶來的直覺判斷。
值得繼續追問的問題
- 「隱私」的邊界究竟在哪裡?隨意用眼鏡錄製他人生活,算不算侵犯他人隱私?
- 若事前明確告知消費者「部分影像會由人工審查」,購買意願會如何改變?
- 如果將 AI 運算移至本機端執行,在技術上需要付出什麼代價?用戶願意接受更高的售價或更低的效能嗎?
- 如果對私密資訊做第二層去識別化處理,再交由人工審查,這樣是否就能解決信任問題?
- 若移除多模態功能,Meta 智慧眼鏡還剩下什麼核心價值?
如果拿掉攝影機與多模態辨識功能,Meta 的智慧眼鏡可能只剩下一副帶耳機的普通造型眼鏡。它的價值核心就在於「看見」,而這也正是隱私崩潰的源頭。
如果我們要求 Meta 審查員也必須配戴智慧眼鏡被用戶反向監看,這種「對等監視」能否解決信任問題?這聽起來像黑鏡的劇情,但在 AI 全面進入生活的時代,這或許是我們必須認真思考的倫理平衡。
歡迎讀者分享對本文的看法,也可以提出可能存在的隱藏假設與偏誤。

















