
本週 AI 產業最震撼的畫面,莫過於 Sundar Pichai 站在 Cloud Next 的舞台上,平靜地說出那個數字:「Google 現在新增的程式碼,有百分之七十五是 AI 生成的。」這個比例在去年秋天還只有百分之五十。六個月內成長了百分之五十。這不是未來趨勢,這是現在進行式。如果連 Google 這種擁有全球最頂尖工程師的公司,都有一半以上的程式碼不再出自人類之手,那麼對整個軟體產業來說,這意味著什麼?
這一週的 AI 新聞量異常密集。OpenAI 在同一天連發四個產品更新,Cursor 剛宣布與 SpaceX 合作訓練模型,Anthropic 推出了視覺設計工具,而 MIT 的一篇深度調查則顯示 AI 可能只會讓富人更富。與此同時,越來越多人開始感到某種說不清的不安。不是反科技,而是那種「事情發生得太快,我們還沒準備好」的焦慮。
以下是本週最重要的六個 AI 主題深度分析。
Google 全面進入 Agent 時代:不只是寫程式,而是管理數千個 Agent
Google Cloud Next 2026 是本週產業焦點。Pichai 的開場演說釋放的訊號非常明確:Google 認為「Agent 時代」已經不是實驗階段,而是需要大規模管理的生產環境。
幾個關鍵數據值得細看。首先,Gemini Enterprise 的付費月活躍用戶在上季成長了百分之四十。這個數字之所以重要,是因為它代表的不是使用者「試用」某個聊天機器人,而是企業真正把工作流程搬到了 Gemini 平台上。從「我們能不能建一個 Agent」到「我們怎麼管理幾千個 Agent」,這個對話的轉變本身就說明了市場成熟度的躍升。
為了回應這個需求,Google 推出了 Gemini Enterprise Agent Platform。這是一個「任務控制中心」,讓企業能夠在安全框架內大規模建置、部署、治理和優化數千個 AI Agent。這個平台的意義不只是在技術層面——它代表著企業對 AI 的採用從「點狀實驗」進入了「系統性基礎建設」的階段。
更值得注意的是第八代 TPU。這次採用雙晶片架構:TPU 8t 專為訓練設計,單一 Superpod 可擴展到九千六百顆 TPU,配備兩 PB 共享高頻寬記憶體,處理能力是前代 Ironwood 的三倍,而且每瓦效能提升兩倍。TPU 8i 則專為推論設計,單一 pod 連接一千一百五十二顆 TPU,內建 SRAM 增加三倍,目標是要讓企業能夠「同時成本效益地運行數百萬個 Agent」。這個數字不是隨便說的——數百萬個 Agent 同時運行,代表 Google 預期的未來不是幾百個企業各跑幾個聊天機器人,而是每個企業內部都有成千上萬個自主運作的數位工作者。
至於那個「百分之七十五的新程式碼由 AI 生成」的數字,Pichai 特別強調這些程式碼都經過工程師審核。這個細節很重要。Google 不是說工程師被取代了,而是說工程師的角色已經從「手寫每一行程式碼」變成「指揮一支由 AI 組成的數位特遣隊」。近期一個特別複雜的程式碼遷移專案,由 Agent 和工程師協作完成的速度,比一年前純人力執行快了六倍。這不是增量改良,這是數量級的差異。
在安全層面,Google 也在布局。Security Operations Center 的 Agent 現在每個月自動分類數以萬計的非結構化威脅報告,將威脅緩解時間縮短了超過百分之九十。此外,Google 還推出了基於 Gemini 的 AI Agent CodeMender,專門尋找並修復關鍵軟體漏洞。如果連 Google 自己的安全團隊都在用 AI 來對抗 AI 驅動的威脅,這暗示了未來網路安全的本質將是「AI 對 AI 的戰爭」。
OpenAI 的「企業全面進攻」:四個產品在同一週上線
如果 Google 是在基礎建設層面宣告 Agent 時代,OpenAI 則是在應用層面展示了令人驚訝的產品迭代速度。短短一週內,OpenAI 發布了至少四項重大更新,每一項都直接指向企業市場。
首先是 Workspace Agents。這個功能讓 ChatGPT 不再只是一個聊天介面,而是可以主動在團隊的工作空間中執行任務的 Agent。想像一個場景:你對 ChatGPT 說「幫我準備下週的產品發表會簡報」,它不僅會生成內容,還會去你的 Google Drive 找參考資料、查行事曆確認時間、甚至發信給相關同事確認細節。這種「從對話到行動」的跳躍,是 OpenAI 區隔自己與其他聊天機器人的關鍵策略。
其次是 ChatGPT Images 2.0。文字生成圖像已經不是新聞,但 Images 2.0 的改進重點在於「精確度」和「一致性」——也就是說,它能夠在多次生成中保持角色、風格和場景的一致性。這對品牌行銷、產品設計和內容創作者來說是實質性的生產力提升,因為過往 AI 繪圖最大的痛點就是「每次生成的東西都不一樣」。
第三個是 OpenAI Privacy Filter。隨著越來越多機密資料被餵進 AI 系統,資料外洩的風險也水漲船高。Privacy Filter 的作用是在資料進入模型之前,先進行脫敏和過濾處理。這個功能看起來不耀眼,但對金融、醫療和法律等高度監管產業來說,可能是採用 AI 的關鍵前提條件。
第四個更新是 Responses API 中加入 WebSocket 支援,加速 Agent 的工作流程。這是更偏向開發者的基礎設施改進,背後的訊息是:OpenAI 正在全力優化「AI Agent 能夠多快完成多步驟任務」這個指標。當各家模型在基準測試上的差距逐漸縮小時,「速度」和「可靠性」就成了新的競爭維度。
同時,OpenAI 也在大規模擴展 Codex——也就是程式碼生成引擎——到全球企業客戶。Google 說它的程式碼有百分之七十五是 AI 生成的,Anthropic 在二月份表示 Claude Code 寫了百分之七十到九十的程式碼。現在 OpenAI 把 Codex 全面推向企業市場,形成三強鼎立的 AI 程式碼生成戰局。這場競爭的結果將直接決定未來軟體工程師的工作型態。
在醫療領域,OpenAI 也在推進 ChatGPT for Clinicians,試圖將 AI 助手整合進臨床工作流程。這條產品線如果成功,可能會徹底改變醫療人員的資訊取得方式——從翻閱病歷和文獻,變成直接用自然語言詢問並獲得結構化答案。
程式設計的典範轉移:Cursor 3、SpaceX 與 Composer 2
如果要選一個「過去六個月成長最驚人的 AI 產品」,Cursor 絕對是強力候選人。這個 AI 程式碼編輯器在四月二日發布了 Cursor 3,標榜為「用 Agent 建構軟體的統一工作空間」。聽起來和一般的程式碼編輯器有什麼不同?
差別在於「Agentic」這個詞。Cursor 3 不只是幫你補全程式碼,或根據註解生成函式,而是能夠理解整個專案的架構,主動提出修改建議,甚至執行跨越多個檔案的重構任務。開發者不再是在寫程式,而是在「指導」一個理解整個程式碼庫的 AI 工程師。
四月二十一日,Cursor 宣布與 SpaceX 合作進行模型訓練。這個合作的具體細節尚未完全公開,但 SpaceX 選擇與 Cursor 而非與更大的平台合作,本身就反映了 Cursor 在技術硬底子上的實力。SpaceX 的程式碼庫極其複雜,涉及硬體控制、飛行模擬、供應鏈管理等多個系統,能夠在這種環境中提供價值,說明 Cursor 的模型已經處理過工業級的複雜度。
三月十九日發布的 Composer 2 則是另一個技術里程碑。這個模型在 CursorBench 上取得了前沿級的成績,重點是更高的 token 效率和更快的預設變體。對開發者來說,這意味著等待時間更短,而且處理大型專案時的成本更低。
四月十五日,Cursor 還推出了 Canvas 視覺化互動功能。Agent 現在可以創建視覺化的圖表和流程圖,讓開發者能夠與 Agent 產出的結果進行更直覺的互動。這看起來是個小功能,但實際上代表開發者與 AI 的溝通方式正在從「純文字」轉向「多模態」。
當 Google、OpenAI、Anthropic 都全力投入 AI 程式碼生成,這個領域的競爭已經白熱化。Cursor 的差異化在於它是從「開發者體驗」出發,而不是從「模型能力」出發。它不是賣你世界上最強大的模型,而是賣你「最好用」的 AI 程式設計工作流。這個策略在開發者社群中產生了極高的口碑傳播效果,也讓它在短時間內累積了大量忠實用戶。
然而這也引發一個更根本的問題:如果軟體工程師越來越依賴 AI 來寫程式,那麼「程式設計能力」這個職業技能會怎麼演化?短期內,工程師的生產力會大幅提升,能夠處理更複雜的專案。但長期來看,如果 junior developer 不再經歷「寫每一行程式碼」的肌肉訓練,整個產業的人才梯隊會不會出現斷層?這個問題目前還沒有答案,但所有科技公司的工程主管都應該開始思考。
AI 讓富人更富?MIT 調查揭示的隱憂
在技術樂觀主義者的歡呼聲中,一個刺耳的聲音來自 MIT。諾貝爾經濟學獎得主 Daron Acemoglu 在接受《金融時報》調查時直言:「AI 將會加劇勞動與資本之間的不平等,這幾乎是確定的。」他甚至用了更強烈的措詞:「我會說,這正在為一場災難鋪路。」
這份調查的核心論點是:AI 工具的民主化敘事是錯誤的。雖然每個人都能使用 ChatGPT,但要真正從 AI 中獲得經濟價值,你需要一定的教育程度、抽象和量化分析能力、程式設計基礎,以及理解和操控這些模型的能力。換句話說,AI 不是讓所有人都能更容易地賺錢,而是讓「已經會賺錢的人」賺得更快、更多。
Acemoglu 指出,現有的 AI 應用大多集中在「自動化」而非「增能」。也就是說,企業用 AI 來取代客服、翻譯、文件處理和初級分析師,而不是用 AI 來讓這些員工做更有價值的工作。結果是利潤流向資本持有者,而受薪階級面臨失業或薪資壓縮。
這個論點與最近一波科技業裁員潮形成了不祥的呼應。越來越多的企業公開表示裁員是為了「提高效率」,而 AI 正是效率提升的主要工具。問題是,這些效率提升的收益並沒有均勻分配——股東和執行長獲得了更高的利潤和薪酬,而被裁掉的員工則進入了一個 AI 正在改寫規則的就業市場。
在知識產業方面,這個趨勢更為明顯。法律助理、初級會計師、翻譯、內容編輯——這些職位的核心工作正在快速被 AI 取代。就連 Sullivan & Cromwell 這樣頂尖的律師事務所,最近在提交給聯邦法官的文件中也被抓到使用了 AI 幻覺產生的假案例引用,錯誤清單長達三頁。一個正在幫川普總統處理多項案件的頂尖律所,竟然會在 AI 的基本事實查核上出錯,這顯示了即便是在最專業的環境中,人類對 AI 的依賴也已經到了危險的程度。
Spotify 在本週開始推出「AI 標籤」系統,要求上傳者標註歌曲中是否使用了 AI 工具。雖然是自主性的、暫時只與 DistroKid 合作,但這反映了產業已經意識到 AI 生成內容的氾濫是一個需要治理的問題。據報導,在某些平台上 AI 上傳的內容已經快要超過人類創作的內容了。
這一切加在一起,描繪出一幅不太友善的圖像:一個少數人變得更富有、更有生產力,而多數人則感到越來越不確定、越來越沒有價值感的未來。
當 AI 開始取代監管機構:RFK Jr. 的爭議言論與治理挑戰
四月二十二日,美國衛生部長 Robert F. Kennedy Jr. 在國會聽證會上表示,AI 有機會讓 FDA(食品藥物管理局)「變得無關緊要」。他聲稱 AI 雖然「非常危險」,但同時有機會「為每位公民開發新藥和個人化醫療」。
這段話在科技圈和健康政策圈引發了軒然大波。The Verge 的評論直接寫道:「我無法想像衛生記者 Victoria Song 看到這篇報導時沒有尖叫著把臉埋進枕頭裡。」為什麼反應這麼激烈?因為 Kennedy 的言論觸及了一個核心矛盾:我們到底應該讓 AI 多快地取代人類的專業判斷?
FDA 的存在是為了確保藥品和醫療器械的安全性和有效性,這個過程需要多年的人體試驗、數據審查和風險評估。Kennedy 的邏輯是,AI 可以加速這個過程,甚至取代其中的人為判斷。但問題是,當 AI 模型本身可能存在偏見、幻覺和不可解釋性時,把生命攸關的決策交給 AI,這個風險由誰承擔?
這不是一個抽象思辨。就在同一週,Google 宣布 Chrome Enterprise 將推出新功能,幫助企業偵測和對抗由 AI Agent 驅動的「異常活動」。這個功能的存在本身就暗示了一個令人不安的現實:AI 變得如此強大,以至於我們現在需要另一個 AI 來監視它。這種「AI 監視 AI」的循環,如果缺乏透明度和人類監督,可能會演變成沒有人能夠理解或控制的系統。
在國防領域,相同的焦慮更加強烈。MIT Technology Review 在本週發表了一系列關於軍事 AI 的深度報導,標題包括「新的作戰室」和「抵抗」。其中一篇文章探討了 AI 如何在軍事決策中被用來標定攻擊目標,甚至在某些情況下實際執行打擊。當機器被賦予生殺大權,而這個決策過程對人類而言是不透明甚至不可理解的時候,我們是否正在跨越一條不該跨越的界線?
這些議題不是未來學家的幻想,而是正在發生的政策辯論。AI 的治理框架嚴重落後於技術發展的速度。當企業和軍事機構都在急於部署 AI 時,監管機構、法律體系和社會規範還在試圖理解這些系統的基本運作原理。
Anthropic 的另一條路:不賣廣告,而是建立信任
在所有科技巨頭都對 AI Agent 和企業市場趨之若鶩的時候,Anthropic 走了一條稍微不同的路。四月十七日,他們推出了 Claude Design,這個工具讓使用者可以和 Claude 協作創建視覺設計、原型、簡報和單頁文件。雖然不是業界首創,但 Anthropic 特別強調「精緻的視覺產出」,這暗示了他們在品質上的堅持。
更值得注意的是 Anthropic 在四月七日宣布的 Project Glasswing。這個計畫集合了 AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 和 Palo Alto Networks,目標是「保護世界上最關鍵的軟體」。這個陣容幾乎涵蓋了美國科技產業的所有重量級玩家,而且目的不是開發新的 AI 功能,而是確保現有的軟體基礎設施不會被 AI 驅動的攻擊摧毀。
這個計畫的戰略意義很明顯:當大家都忙著用 AI 做更酷的事情時,Anthropic 選擇投入資源確保 AI 不會成為破壞的力量。這種「安全優先」的姿態,與他們在二月份公開承諾「Claude 將保持無廣告」的決定一脈相承。Anthropic 的解釋是:廣告激勵機制與「真正有益的 AI 助手」是互斥的。如果 AI 的商業模式是基於讓使用者花更多時間在平台上、點擊更多內容,那麼 AI 就會被優化成「讓你上癮」而不是「幫你解決問題」。
這個立場在當前的 AI 產業中顯得有些反常。OpenAI 和 Google 都在積極擴展企業市場和廣告變現的可能性,而 Anthropic 卻說「我們選擇不做這件事」。這是否會影響他們的市佔率和收入?短期內或許會。但長期來看,如果在 AI 的信任危機持續升溫的環境中,使用者開始意識到「無廣告」意味著「沒有操控性的推薦」和「真正的用戶利益優先」,Anthropic 的策略可能會轉化為強大的品牌差異化。
此外,Anthropic 在本週也公開了一項研究結果:他們邀請了超過八萬一千名 Claude.ai 使用者分享他們使用 AI 的方式、夢想與恐懼。這是迄今為止最大規模、最多語言的 AI 使用者質性研究。雖然完整結果尚未公布,但這個動作本身就顯示了 Anthropic 對「理解真實使用者需求」的重視程度——不是通過點擊率或留存率等量化指標,而是透過真正的對話和質性研究。
人們開始害怕了:AI 倦怠時代的到來
如果這週你只能記住一件事,那就是這個:AI 的技術進步速度與社會的心理準備程度之間的落差,正在快速擴大。
MIT Technology Review 在本週刊登了一篇標題為「AI 倦怠時代」的深度評論,作者直言不諱地描述了當前社會的集體焦慮。不是反科技,而是一種更複雜的情緒:我們知道 AI 會治療疾病、發現新的蛋白質結構、幫我們寫程式,但同時它也讓孩子在網路上接觸到自殘建議、讓律師事務所提交假案例、讓資料中心燒掉更多電力、讓雇主裁掉數千名員工。「它同時在發現蛋白質結構和告訴孩子去自殺」,這種極端對比正是人們感到不適的根源。
我們正在經歷的不是單一事件,而是一種氛圍的轉變。兩年前,AI 的公共形象還是「很酷的玩具」和「生產力工具」。現在,越來越多人開始問:「誰來負責?」當 Sullivan & Cromwell 這樣的頂尖律所因為使用 AI 而犯下低級錯誤,當 Spotify 需要推出 AI 標籤來區分人類和機器創作,當 Google 必須用 AI 來監視 AI——這些都是症狀,顯示這個系統正在變得複雜到連最專業的使用者都難以完全掌控。
更值得關注的是經濟層面的不確定性。當 Google、Anthropic 和 OpenAI 都在競相展示 AI 生成程式碼的能力,當 Cursor 和 SpaceX 聯手訓練模型,當企業公開表示裁員是因為 AI 效率提升——這些新聞單獨看都很正面,合在一起卻描繪出一幅令人不安的圖像:我們正在用有史以來最快的速度,重塑人類勞動的價值和意義。
這個過程中最大的風險,或許不是某個 AI 突然變得有意識或決定毀滅人類——那些是好萊塢的劇情。真正的風險是更平凡的:我們在沒有充分準備的情況下,就讓 AI 滲透進經濟、法律和社會結構的每個環節,然後發現我們既沒有應對失敗的備案,也沒有公平分配利益的機制。
本週的所有新聞——Google 的 TPU、OpenAI 的 Workspace Agents、Cursor 的 SpaceX 合作、Anthropic 的無廣告承諾、MIT 的不平等警告、RFK Jr. 的 FDA 言論——它們都是同一個大故事的不同章節。這個故事講的不是 AI 會不會改變世界,而是 AI 正在改變世界,而我們還在爭論它是不是該改變得這麼快。
如果只記一件事
Google 說它現在百分之七十五的新程式碼是 AI 寫的。這句話的重點不是「AI 多厲害」,而是「就連擁有全球最頂尖工程師的公司,人類寫程式的比例也在半年內從百分之五十掉到百分之二十五」。技術的滲透速度比幾乎所有人的預期都快,而社會的準備速度卻沒有跟上。這個落差,就是本週所有新聞的共同主線。
免責聲明:本文章僅為個人分析紀錄與學習心得分享,不構成任何投資建議、買賣推薦或投資諮詢。文章內容僅供參考,投資決策應由投資人自行判斷並承擔所有風險。過去績效不代表未來績效,本文不保證任何投資收益。股票投資具有風險,可能導致本金損失,投資前請審慎評估自身財務狀況與風險承受能力。投資有風險,入市需謹慎,請獨立判斷、自負盈虧。













