
四月的第二週,AI 產業動態比過去一個月還密集。Anthropic 丟出一顆震撼彈,推出能自主發現零時漏洞的 Claude Mythos 模型;OpenAI 同步公佈企業戰略藍圖,明確宣示要把自己變成企業運作的「智慧作業系統」;Cursor 發布第三代產品,把多代理人協作推向主流;還有關於兒童安全、青少年使用行為的重要討論。這週的新聞不只是產品更新,而是整個 AI 產業正在重新定義自己的邊界與責任。
Anthropic 的網路防禦革命:當 AI 能找到人類找不到的漏洞
Anthropic 在四月七日宣佈 Project Glasswing,這可能是今年至今 AI 領域最重要的消息。不是因為產品發布,而是因為它揭露了一個不願面對的真相:AI 模型的程式碼能力已經超越絕大多數人類資安專家。
Claude Mythos Preview 是這個計畫的核心。這是一個尚未公開發布的先鋒模型,專注於網路安全領域。它的表現令人不安:過去幾週,這個模型自動發現了數千個零時漏洞,涵蓋所有主流作業系統和網頁瀏覽器。這些漏洞中,有些已經存在超過二十年,經歷過數百萬次自動化測試卻從未被發現。
更具體地說,Mythos Preview 找到了一個存在二十七年的 OpenBSD 漏洞。OpenBSD 以安全著稱,常被用於防火牆等關鍵基礎設施,但這個漏洞讓攻擊者可以遠端讓任何執行該系統的機器當機。另外,在 FFmpeg 這個被無數軟體用來處理影音編解碼的函式庫中,它發現了一個十六年的漏洞,而且那行程式碼曾被自動測試工具執行過五百萬次都沒抓到問題。還有一個案例:它在 Linux 核心中自主串接多個漏洞,讓攻擊者可以從普通用戶權限一路提升到完全控制整台機器。
這些發現背後的意義遠超過技術層面。長年以來,網路安全的遊戲規則是這樣的:找到漏洞需要高度專業知識,只有少數資安專家具備這種能力。這讓漏洞發現成為一種稀缺資源,也讓防禦方有時間在攻擊者之前修補問題。但現在,這個假設被打破了。AI 模型把漏洞發現的成本、門檻和時間全部壓低到前所未有的程度。更關鍵的是,這種能力不會只停留在 Anthropic 手上。模型能力會擴散,遲早會落入不那麼善意的行為者手中。
Anthropic 的解決方案是搶先一步。Project Glasswing 把 Mythos Preview 帶給防禦方,而不是等待攻擊方追上。參與者包括 Amazon Web Services、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks,還有四十多個額外被邀請的組織。這些機構可以使用 Mythos Preview 來掃描並強化自己的系統,以及他們依賴的開源專案。Anthropic 更投入一億美元的使用額度,加上四百萬美元直接捐贈給開源安全組織。
從產業角度來看,這是一個信號:網路安全正在進入一個全新的時代。過去,安全是被動的——等漏洞被發現再修補。現在,AI 讓主動防禦成為可能,而且刻不容緩。Cisco 的聲明說得直白:「AI 能力已經跨越了一個門檻,從根本上改變了保護關鍵基礎設施所需的緊迫程度。我們無法回頭。」
這個發展也提出了一個尖銳的問題:當防禦能力大幅提升,攻擊能力也會跟著提升。這是一場軍備競賽,而且剛剛開始。Anthropic 選擇把先鋒能力交給防禦方,是個明確的立場宣告。但問題是,這個領先優勢能維持多久?
OpenAI 的企業野心:從工具到基礎設施
OpenAI 在四月八日發布了一篇長文,標題是「The next phase of enterprise AI」。這篇文章由剛上任九十天的企業部門負責人撰寫,內容是他對企業 AI 發展的觀察,以及 OpenAI 的戰略定位。讀完這篇文章,可以清楚看到 OpenAI 不只想做一個 AI 工具供應商,而是要做企業運作的核心基礎設施。
文章開頭提到,企業現在的緊迫感和準備程度前所未見。這位負責人說他在職業生涯中見過很多技術變革,但從未看過這種程度的信念如此快速且一致地擴散到各行各業。企業領導者把 AI 視為他們這輩子最重要的變革,問題已經不是「要不要做」,而是「怎麼做」。
數據佐證了這個觀察。OpenAI 的企業營收現在佔總營收超過百分之四十,預計在二零二六年底達到與消費者營收持平。Codex 每週活躍用戶突破三百萬,API 每分鐘處理超過一百五十億個 token。GPT-5.4 正在推動創紀錄的代理人工作流互動。新客戶包括 Goldman Sachs、Phillips、State Farm,舊客戶如 Cursor、DoorDash、Thermo Fisher 也在持續加碼。
重點在於企業現在面臨的兩個核心問題:如何把最強大的 AI 部署到整個企業,而不只是個別的助手或副駕駛?如何讓 AI 成為員工日常工作的一部分,幫助他們釋放全部潛力?OpenAI 的答案是雙管齊下:Frontier 作為底層智慧層,統一管理企業所有代理人;以及一個統一的 AI 超級應用,作為員工完成工作的主要介面。
OpenAI Frontier 是這個戰略的核心。它不是一個單一產品,而是一個讓企業建立、部署、管理代理人的平台。與其他把代理人鎖在單一產品或環境中的解決方案不同,Frontier 讓代理人能夠跨越企業的系統和資料,持續改進。Oracle、State Farm、Uber 已經在使用。
另一頭是統一的 AI 超級應用。OpenAI 的優勢在於 ChatGPT 有九億週活躍用戶,這意味著員工已經知道怎麼與它互動。對企業來說,這大幅降低了導入門檻。目標是把 ChatGPT、Codex、代理人瀏覽等功能整合到一個體驗中,讓員工可以委派繁瑣任務,專注在更有價值的工作上。
文章中特別提到一個轉變:最先進的企業用戶已經從「用 AI 幫忙做任務」轉變為「管理代理人團隊來為他們做事」。這個轉變從 Codex 開始——它今年成長超過五倍。GitHub、Nextdoor、Notion 都在建立能端到端執行工程工作的多代理人系統。OpenAI 自己的業務團隊也在用代理人研究潛在客戶、評分、發送個人化郵件、更新 CRM。
這背後的理念是「capability overhang」,能力過剩。AI 模型能做的事遠超過大多數人和企業現在使用的程度。OpenAI 的目標是縮小這個差距,讓先鋒智慧變得可用、可信、嵌入到實際的工作流程中。這不是一個技術問題,是一個部署問題,而 OpenAI 正在把自己定位為解決這個問題的關鍵基礎設施。
OpenAI 的兒童安全框架:當 AI 公司開始寫政策
同一天,OpenAI 發布了另一個重要消息:Child Safety Blueprint,兒童安全藍圖。這是一份政策建議文件,旨在協助美國更新兒童保護框架,應對 AI 時代的挑戰。
這份文件背後的現實很沉重:AI 正在改變兒童性剝削的樣貌。生成式 AI 讓製造這類內容變得更容易、更規模化,門檻大幅降低。同時,AI 也能成為防禦工具,更好地檢測和預防這類犯罪。OpenAI 的藍圖試圖在這兩端找到平衡,提出一個務實的前進路徑。
藍圖聚焦在三個關鍵優先事項。第一,現代化法律,以應對 AI 生成或竄改的兒童性虐待材料。現有的法律框架是在 AI 時代之前制定的,需要更新以反映新的威脅樣貌。第二,改善供應商的通報和協調機制,支援更有效的調查。這涉及科技公司如何與執法部門合作,如何在保護隱私的同時提供必要的線索。第三,在 AI 系統中直接內建「安全設計」措施,預防和檢測濫用。
這份文件不是 OpenAI 單獨完成的。它與 National Center for Missing and Exploited Children(NCMEC)、Attorney General Alliance 及其 AI Task Force 共同制定,還有 Thorn 等兒童安全組織參與。北卡羅來納州總檢察長 Jeff Jackson 和猶他州總檢察長 Derek Brown 共同擔任 AI Task Force 主席,他們在聲明中表示,有效的生成式 AI 安全防護需要多層防禦,不是單一的技術控制,而是檢測、拒絕機制、人類監督、持續適應新濫用模式的組合。
這個發展有幾層意義。首先,這是 AI 公司主動介入政策制定的又一例證。過去,科技公司傾向於「先把產品做出來,再考慮後果」。現在,至少在這個議題上,OpenAI 選擇了更主動的角色。其次,這反映了 AI 安全問題的複雜性。它不是純技術問題,需要法律、運營、技術三個層面協同合作。第三,這是一個信號:隨著 AI 能力增強,AI 公司不能只負責「把模型做強」,還要負責「確保模型不被用於傷害」。
NCMEC 的執行長 Michelle DeLaune 在聲明中說得很清楚:「沒有單一組織、企業或部門能獨自解決這個問題。」這句話適用於 AI 安全的很多層面。問題是,產業合作和法律更新的速度,能否追上威脅演變的速度?
Anthropic 的算力豪賭:三百億美元營收背後的基礎設施佈局
Anthropic 在四月六日宣佈與 Google 和 Broadcom 簽署新協議,將獲得多個 gigawatt 等級的下一代 TPU 算力,預計從二零二七年開始上線。這是 Anthropic 迄今為止最大的算力承諾,反映出公司對 Claude 未來需求的預期。
這個消息的背景數據更加震撼:Anthropic 的 run-rate revenue 已經突破三百億美元,從二零二五年底的約九十億美元成長超過三倍。當他們在二月宣佈 Series G 時,超過五百個企業客戶每年消費超過一百萬美元。現在,這個數字已經超過一千,在不到兩個月內翻倍。
這個算力協議有幾個值得注意的地方。首先,大部分新算力將設置在美國,這是 Anthropic 在二零二五年十一月承諾投資五百億美元強化美國運算基礎設施的重大擴展。其次,Anthropic 的策略是多元化硬體平台——AWS Trainium、Google TPU、NVIDIA GPU 都在用。這種多樣化讓他們可以根據工作負載選擇最適合的晶片,也為客戶提供更好的效能和韌性。
從產業角度來看,這反映了一個更廣泛的趨勢:AI 公司正在把算力基礎設施視為戰略資產。這不只是「買多少 GPU」的問題,而是「如何在多個平台之間調度工作負載」「如何平衡成本與效能」「如何確保供應鏈韌性」。當一個模型的訓練成本動輒數億美元,推理成本每月數千萬美元,算力策略直接決定商業可行性。
Amazon 仍然是 Anthropic 的主要雲端供應商和訓練合作夥伴,Project Rainier 持續推進。但這次與 Google 和 Broadcom 的合作,顯示 Anthropic 不願把所有雞蛋放在一個籃子裡。這是一個理性選擇——當你的營收在幾個月內翻了三倍,你需要所有能拿到的算力。
更重要的是,這個消息揭示了 AI 公司商業模式的現實:訓練下一代模型需要天文數字的投資,而這些投資必須透過實際營收來支撐。三百億美元的 run-rate revenue 聽起來很驚人,但如果算力成本、人才成本、研發成本加起來每年超過兩百億,那利潤空間其實有限。AI 公司正在進入一個「燒錢換成長」的階段,問題是這個模式能持續多久。
Cursor 3 與 Bugbot:代理人工時代的軟體開發介面
Cursor 在四月二日發布了 Cursor 3,這是一次根本性的介面重新設計。不是升級,是重建。核心想法是:軟體開發正在經歷第三波變革,從手動編輯檔案,到與代理人合作寫大部分程式碼,再到代理人群體自主工作。Cursor 3 是為第三波做準備。
新介面有幾個關鍵改變。首先是多工作區支援,讓人和代理人能夠跨越不同的程式庫工作。其次是所有代理人統一在一個地方呈現,包括從行動裝置、網頁、桌面、Slack、GitHub、Linear 啟動的代理人。第三是本地和雲端代理人之間的無縫切換——可以把雲端代理人拉到本地編輯和測試,也可以把本地代理人推到雲端繼續跑,這樣關上筆電也不會中斷任務。
更值得關注的是四月八日關於 Bugbot 的更新。Bugbot 是 Cursor 的 AI 程式碼審查工具,現在它的「學習規則」功能開放使用,讓它能從開發者的回饋中自我改進。數據顯示,Bugbot 的問題解決率從去年七月的百分之五十二提升到現在接近百分之八十,比最接近的競爭對手高出十五個百分點。
學習規則的運作方式是這樣的:每次合併的 PR 都包含各種信號——開發者對 Bugbot 評論的反應、回覆、人類審查者的意見等。Bugbot 把這些信號處理成候選規則,持續評估。當信號累積足夠,候選規則可以升級為正式規則,開始影響未來的審查。同樣,如果一個規則開始產生持續的負面信號,Bugbot 可以自動停用它。
自從學習規則在測試版推出以來,超過十一萬個程式庫啟用了學習功能,產生了四萬四千多條規則。這意味著 Bugbot 正在從「一個通用的 AI 審查工具」變成「理解特定團隊程式碼風格和優先順序的工具」。
這背後的趨勢是明確的:軟體開發正在從「人寫程式碼,AI 幫忙」轉變為「AI 寫程式碼,人審查和引導」。Cursor 3 的設計反映了這個轉變——介面不再是圍繞程式碼編輯器構建,而是圍繞代理人管理構建。開發者的角色正在從「寫作者」變成「監督者」和「策略制定者」。
這不是壞事,而是效率的提升。問題是:當代理人能夠自主完成越來越多的工程工作,開發者需要什麼樣的新技能?當程式碼審查由 AI 主導,人類審查者的價值在哪裡?這些問題沒有標準答案,但 Cursor 這類產品正在迫使我們面對它們。
如果只記一件事
這週最重要的消息是 Project Glasswing。不是因為它最聲量最大,而是因為它代表了 AI 能力跨越了一個門檻——從「輔助人類」到「超越人類專家」。當一個模型能找到連續二十七年沒被發現的漏洞,當它能自主串接多個漏洞取得系統完全控制權,這不只是技術進步,是遊戲規則的改變。Anthropic 選擇把這種能力先交給防禦方,是個明確的價值立場。但這個領先能維持多久,取決於產業合作的速度和法律框架更新的步伐。網路安全的軍備競賽已經開始,而我們剛剛進入了 AI 時代的第一回合。

























