2026 年 3 月底,全球 AI 巨頭 Anthropic 遭遇了成立以來最嚴重的資安事故。其旗艦級 AI 代理工具 Claude Code的核心原始碼——多達 51 萬行代碼——因內部作業疏失意外公開。這起事件不僅震動了矽谷,更引發了關於 AI 安全與智慧財產保護的全民討論。
一、 致命的疏忽:外洩是如何發生的?
令人驚訝的是,這起重大外洩並非源於駭客攻擊。根據後續調查,這是一次典型的「工程流程事故」。Anthropic 在向 NPM 軟體包倉庫發布更新時,工程師未正確配置過濾清單,導致包含原始代碼結構的映射文件(.map files)隨同發布。這使得任何人都能透過簡單的逆向操作,還原出完整的 JavaScript 與 TypeScript 源文件。
二、 技術衝擊:AI Agent 的黑盒被打開
Claude Code 是目前市面上最先進的 AI Agent 之一。原始碼的外流,意味著 Anthropic 耗時數年研發的「秘方」被公開:
- 決策邏輯曝光:代碼揭露了 AI 如何拆解開發者的指令、如何決定調用哪些 API,以及如何進行自我修正。
- 提示詞工程(Prompt Engineering)透明化:內置的系統提示詞被完整提取,這讓競爭對手能直接參考其調教 AI 的精準邏輯。
- 內部代號與彩蛋:代碼中發現了內部代號如「Buddy」的終端寵物系統,以及充滿工程師幽默的註釋,展現了產品背後感性的一面。
三、 災難連鎖:供應鏈攻擊與誤殺風波
外洩發生的 24 小時內,連鎖反應迅速失控:
- 惡意軟體偽裝:大量駭客將外洩代碼注入後門,打包成虛假的「免費版 Claude Code」在 GitHub 上散布,導致不少開發者中招。
- GitHub 封殺誤傷:Anthropic 為了止血,啟用了自動化版權投訴系統。然而,由於算法過於激進,導致數千個與外洩代碼無關、僅是名稱相近的開源項目被錯誤刪除,引發開發者社群的憤怒。
四、 啟示:AI 公司不再享有「安全特權」
這起事件為全球 AI 產業敲響了三聲警鐘:
- 安全流程的基礎性:即使是研發最強人工智慧的公司,也可能在最基礎的文件過濾上栽跟頭。
- 透明度與信任危機:AI 工具擁有極高的權限(如讀取用戶代碼庫),一旦其自身的安全性存疑,用戶的信任將難以修復。
- 開源與閉源的博弈:部分專家認為,這次「被迫開源」反而讓技術社群得以檢視 AI 的潛在偏見與安全漏洞。
結語
Claude Code 的外洩事件證明了,在追逐通用人工智慧(AGI)的競賽中,「安全」不應只是產品的副屬性,而應是核心基因。這 51 萬行代碼的代價,將迫使整個 AI 行業重新審視其交付流程與技術邊界。



















