AI 產業的一週:AGI 宣言之戰、國防級法律風暴,與編程代理的下一步

更新 發佈閱讀 15 分鐘
vocus|新世代的創作平台



這一週的 AI 新聞有幾個特別值得注意的趨勢。NVIDIA 執行長 Jensen Huang 在公開場合宣稱「我們已經達成 AGI」,引發了產業界對於通用人工智慧定義的新一輪討論。另一方面,Anthropic 正在與美國國防部進行法律訴訟,因為該公司被列為供應鏈風險,這場衝突涉及到 AI 公司與政府之間對於安全邊界的不同理解。在開發工具領域,Cursor 發布了全新的 Composer 2 模型,同時也展示了如何用 AI 代理來保護程式碼安全。而 OpenAI 傳出可能向 Helion Energy 採購核融合能源,顯示 AI 公司對能源需求的迫切性。Meta 則宣布將用 AI 取代人工內容審核,Samsung 計劃投資七百三十億美元擴張 AI 晶片產能。這些看似獨立的事件,其實都指向同一個大方向:AI 正在從實驗室走向企業級應用,而隨之而來的監管、安全、能源問題也正在浮上檯面。


Jensen Huang 的 AGI 宣言:說了還是沒說?


NVIDIA 執行長 Jensen Huang 最近在 Lex Fridman 的播客節目上說了一句讓整個科技圈都議論紛紛的話:「我認為我們已經達成 AGI。」這句話聽起來很震撼,但實際上需要仔細拆解。


首先,AGI 這個詞本身就充滿了模糊性。在最近幾個月,許多科技公司的高層都在試著與這個詞保持距離,甚至創造出新的術語來替代它,因為他們覺得 AGI 已經被過度炒作,不夠精確,也缺乏清晰的定義。但問題是,這些新創出來的名詞,本質上跟 AGI 指的是同一件事——一個能夠像人類一樣思考、學習、解決問題的 AI 系統。


更有趣的是,AGI 這個詞還出現在一些重要的商業合約裡。舉例來說,OpenAI 和微軟之間的合約就有關鍵條款跟 AGI 有關,這些條款可能牽涉到巨額的金錢。所以當 Jensen Huang 說「我們已經達成 AGI」的時候,這不只是哲學上的討論,還可能涉及到合約、投資、和市場定位的問題。


在播訪中,Lex Fridman 把 AGI 定義為「一個能夠創立、成長、並經營一家價值超過十億美元的科技公司的 AI 系統」。這個定義很具體,也很務實。Fridman 問 Huang,距離實現這樣的 AGI 還要多久?五年?十年?十五年?二十年?Huang 的回答出人意料:「我認為就是現在。我認為我們已經達成 AGI。」


Huang 接著提到 OpenClaw 這個開源 AI 代理平台,以及它的病毒式成功。他說人們正在用各自的 AI 代理來做各種事情,他「不會驚訝如果發生了某個社會事件,或是有人創造了一個數位網紅……或是某個社交應用,你知道的,就像是養電子雞之類的,然後突然間變成一個瞬間的成功。」


但就在說完這些之後,Huang 似乎又稍微退了一步。他說:「很多人用了幾個月之後就慢慢不用了。現在,十萬個代理要建立出另一個 NVIDIA,機率是零。」這句話其實很重要。他在說:是的,AI 已經可以做很多事,但要做到真正複雜、真正有價值的事情,還是有距離的。


從這段對話可以看出,Huang 所謂的「AGI 已達成」,其實是一種特定角度的詮釋。如果你把 AGI 定義為「能夠完成特定任務、有一定程度的自主性、能夠處理多種工作」,那麼現在的 AI 系統確實已經很接近這個目標。但如果你把 AGI 定義為「能夠像人類一樣理解世界、做出複雜決策、創造全新的價值」,那我們顯然還有一段路要走。


對企業來說,這個討論的意義在於:不要被 AGI 這個詞迷惑。重要的是你的 AI 系統能不能解決你的實際問題。Huang 的評論提醒我們,現在的 AI 已經能夠幫助人類完成很多工作,但它距離完全取代人類,特別是在需要複雜決策、創造力、和商業判斷的領域,還有明顯的差距。


Anthropic 對國防部提起訴訟:AI 安全邊界的法律戰


Anthropic 這週向美國政府提起訴訟,原因是該公司被五角大廈列為「供應鏈風險」。這場法律戰的核心,是關於 AI 公司在軍事應用上應該扮演什麼角色,以及政府能不能因為公司的立場而進行報復。


故事的背景是這樣的:Anthropic 早在之前就設下了「紅線」,明確表示不願意讓其 AI 模型被用於大規模國內監控或全自主武器。這些紅線是基於 Anthropic 對 AI 安全的理解和承諾。但在最近,美國國防部將 Anthropic 列為供應鏈風險,這個決定通常是用於可能構成網路安全威脅的外國公司,而不是一家總部位於美國的公司。


更嚴重的是,川普總統命令所有政府機構在六個月內停止使用 Anthropic 的產品。這對 Anthropic 來說是巨大的商業打擊,因為政府合約是許多科技公司的重要收入來源。美國總務署已經終止了與 Anthropic 的 OneGov 合約,財政部和國務院也公開或私下表示將停止使用其產品。


Anthropic 的訴訟指出,政府的行為是對公司言論自由的報復,違反了第一修正案和第五修正案的權利。訴狀中寫道:「聯邦政府報復了一家領先的前沿 AI 開發商,因為它堅持在 AI 安全這個重大公共議題上表達其受保護的觀點——這是在違反美國憲法和法律的情況下。」


這起事件引發了兩黨的關注和爭議,因為它觸及了一個敏感問題:如果一家公司不同意當前執政政府的政策,會不會因此受到懲罰?這種擔憂不僅影響 Anthropic,也可能影響所有與政府有商業往來的 AI 公司。


從產業角度來看,這場衝突反映了 AI 公司和政府之間的張力。一方面,AI 技術在國防領域有巨大的應用潛力,從情報分析到後勤優化,都需要 AI 的能力。另一方面,如果 AI 公司對使用場景沒有任何限制,可能會導致技術被濫用,造成無法挽回的後果。


這讓人想起 Google 在 2018 年因為 Maven 計畫(一個與國防部的 AI 專案)而引發的內部抗議,最終導致 Google 承諾不會開發武器化的 AI。但現在的政治環境不同,AI 公司面臨的壓力更大,而這場 Anthropic 的訴訟可能會成為一個指標性的案例,定義 AI 公司在軍事領域的責任邊界。


對台灣的讀者來說,這起事件的意義可能更為間接,但仍然值得關注。因為如果美國政府開始要求 AI 公司在軍事應用上完全配合,這可能會影響到全球 AI 產業的發展方向。台灣有許多 AI 新創公司,也有許多與美國合作的專案,了解這些政策變化趨勢,有助於提早做出應對。


Cursor 的作曲家:編程代理的新時代


Cursor 這週發布了 Composer 2,一個全新的編程模型。如果你是開發者,這個消息值得關注,因為它代表了編程代理正在快速進化。


首先來看數字。根據 Cursor 公布的測試結果,Composer 2 在 CursorBench 上得到 61.3 分,在 Terminal-Bench 2.0 上得到 61.7 分,在 SWE-bench Multilingual 上得到 73.7 分。相比之下,上一代的 Composer 1.5 只有 44.2、47.9、和 65.9 分。這是一個顯著的進步。


但數字背後更重要的故事是:Composer 2 是 Cursor 第一個經過「持續預訓練」的模型。這意味著他們從頭開始訓練了一個更強大的基礎模型,然後再用強化學習在長任務上進行訓練。這讓 Composer 2 能夠處理需要數百個動作的複雜任務,而不僅僅是回答單一問題。


定價方面,Composer 2 的輸入 token 價格是每百萬個 token 0.50 美元,輸出 token 是每百萬個 2.50 美元。這個價格在同級模型中算是相當有競爭力的。還有一個更快的變體,輸入 token 每百萬 1.50 美元,輸出 token 每百萬 7.50 美元,這個變體被設為預設選項。


對日常開發者來說,Composer 2 的意義在於:你現在可以用更低的成本,獲得接近 frontier 等級的編程輔助。過去要達到這種水準,可能需要付費使用 OpenAI 或 Anthropic 的頂級模型,現在有了更平價的選擇。


但更讓我感興趣的是 Cursor 同時釋出的安全代理功能。他們發布了一篇部落格文章,詳細說明了自己的安全團隊如何使用 Cursor Automations 來建立一套自動化的安全審核系統。


這套系統包含四個主要的自動化工具:Agentic Security Review 會檢查每一個 PR 的安全問題,並且有權擋住有問題的程式碼;Vuln Hunter 會掃描現有的程式碼庫,找出潛在的漏洞;Anybump 專門處理依賴項的更新和漏洞修補;Invariant Sentinel 則會每天監控程式碼庫,確保沒有違反安全或合規的屬性。


這四個工具的組合,讓 Cursor 的安全團隊能夠在 PR 數量增加五倍的情況下,仍然保持程式碼的安全。這是一個很重要的示範:AI 不僅能幫你寫程式碼,還能幫你保護程式碼。


對企業來說,這種安全代理的意義在於:你可以用相同的架構,建立自己的安全自動化流程。Cursor 已經把這些工具的藍圖釋出到 marketplace,其他的安全團隊可以根據自己的需求來客製化。


這背後的趨勢是:編程代理正在從「輔助工具」變成「自主代理人」。它們不只是回答你的問題,還能主動監控、分析、甚至修復問題。這對開發效率的影響是巨大的,但同時也意味著開發者需要學習如何與這些代理人協作,如何設計合適的觸發條件,以及如何判斷代理人的輸出品質。


OpenAI 與核融合:AI 的能源焦慮


另一個值得注意的新聞是:OpenAI 傳出正在與 Helion Energy 談判採購核融合能源。Sam Altman 已經辭去了 Helion 的董事職位,為了避免利益衝突。Axios 報導指出,OpenAI 正在與 Helion 進行「深入的談判」。


這條新聞背後的故事是:AI 公司正在面臨嚴重的能源問題。訓練和運行大型語言模型需要大量的電力,而傳統能源的供應已經開始跟不上需求。OpenAI 不是唯一一家在尋找新能源的科技公司。微軟已經表示要讓 Three Mile Island 核電廠重新啟動,Google 和 Amazon 也都在投資核能和再生能源。


核融合被視為能源的「聖杯」,因為它理論上可以提供幾乎無限的乾淨能源,而且沒有傳統核分裂的安全風險。但問題是,核融合至今仍然是一個尚未實現的技術。雖然有越來越多的突破,但要達到商業可行,還需要多年的努力。


所以當 OpenAI 在談判採購核融合能源時,這不是短期內就能解決問題的方案。但它顯示了一個趨勢:AI 巨頭正在用各種方式來確保能源供應,包括投資前沿技術。


對台灣來說,這個新聞的意義在於:如果你是在規劃 AI 基礎建設,能源是一個必須考慮的因素。台灣的電力供應在某些時段已經很吃緊,如果 AI 運算需求持續增加,能源可能會成為瓶頸。一些台灣的科技公司已經開始投資太陽能和儲能系統,這是一個正確的方向。


Meta 的 AI 審核:人工時代的結束?


Meta 宣布將用 AI 來取代人工內容審核。這是一個重大的轉變,因為內容審核一直是社群平台的一個巨大負擔。過去,這項工作主要由承包商的員工來完成,他們需要閱讀和觀看大量的有害內容,從暴力影片到仇恨言論,對心理健康造成嚴重影響。


Meta 表示,AI 審核系統「將減少我們對第三方供應商的依賴」,而且「這些系統將能夠承擔更適合技術的工作,比如重複審查圖形內容,或者對抗性參與者不斷改變戰術的領域,例如非法藥物銷售或詐騙」。


這個決定的背後有幾個考量。首先是成本。人工審核需要大量的員工,而且需要心理諮商和工作場所安全措施,成本很高。其次是效率和準確性。AI 系統可以全天候運作,而且可以更快地適應新的內容模式。第三是對員工的保護。讓人類閱讀有害內容本身就是一種傷害。


但這個轉變也有風險。AI 系統可能會誤判,把合法的內容標記為違規,或者漏掉真正的有害內容。而且,AI 系統本身也可能被操縱,例如有人可能會用特定的文字或圖像來誤導 AI。


這讓我想起去年 Meta 的內容審核員工會聯盟(Content Moderator Union Alliance)成立,要求更好的工作條件。現在,Meta 的決定可能會讓這些員工失去工作。從勞工權益的角度來看,這是一個值得關注的問題。


對於在台灣經營社群平台或內容網站的人來說,這是一個重要的提醒:AI 內容審核正在成熟,但你需要同時考慮效率、準確性、和責任問題。如果你使用 AI 來審核內容,你需要確保有申訴機制,讓用戶可以在被誤判時提出異議。


Samsung 的七百三十億美元豪賭:AI 晶片的軍備競賽


Samsung 計劃在 2026 年投資七百三十億美元來擴張 AI 晶片產能。這個數字是該公司年度投資的百分之二十二增長,目標是超越 SK Hynix,成為 NVIDIA 主要的記憶體供應商。


三星的共同執行長 Jun Young-hyun 表示,代理 AI(agentic AI)的需求正在激增,訂單量快速增加。公司將資金投入到「未來導向」的領域,包括先進機器人。


這條新聞背後的故事是:AI 晶片的軍備競賽正在升溫。NVIDIA 是最大的贏家,但其供應鏈也在激烈競爭。SK Hynix 目前是 NVIDIA 高頻寬記憶體(HBM)的主要供應商,但 Samsung 想要搶下這個位置。對 Samsung 來說,這是一場「輸了就出局」的戰鬥,因為如果他們無法在 AI 晶片市場佔有一席之地,可能會在下一個科技時代被邊緣化。


對台灣的讀者來說,這個新聞的意義在於:台灣在全球半導體供應鏈中扮演重要角色,台積電是 NVIDIA 和 AMD 的主要代工廠。當 Samsung 在記憶體領域追趕時,台灣也在自己的領域上競爭。了解全球 AI 晶片的動態,有助於把握產業趨勢。


如果只記一件事


這週最重要的訊息是:AI 正在從「技術議題」變成「治理議題」。Jensen Huang 說我們達成 AGI,是在提醒我們不要低估現有技術的能力,但同時也不要高估它解決複雜問題的能力。Anthropic 對國防部的訴訟,是在提醒我們 AI 公司和政府之間的緊張關係正在浮上檯面。Cursor 的進展是在提醒我們,編程代理的進化速度比我們想像的更快。而 OpenAI 對核融合的興趣、Meta 的 AI 審核、Samsung 的巨額投資,都在告訴我們同一件事:AI 已經不只是實驗室裡的技術,它是國家安全、企業營運、能源政策、和基礎建設的一部分。對台灣來說,這意味著我們需要更認真地思考:如何在這個 AI 時代找到自己的位置?


留言
avatar-img
今天學 AI
0會員
23內容數
AI 離你沒有那麼遠。「今天學 AI」每天為你整理最新的 AI 工具實測、產業動態、商業案例與技術解析,用你聽得懂的話,幫你跟上這個變化最快的時代。不管你是好奇的新手,還是想把 AI 用在工作裡的行動派,這裡都是你的第一站。
今天學 AI的其他內容
2026/03/24
科技產業從來不缺誇張宣稱,但當 Nvidia 執行長 Jensen Huang 說「我們已經達成 AGI」的時候,整個圈子還是震了一下。不是因為這句話多了不起,而是因為說這話的人、說話的時機、以及這句話背後隱含的商業盤算,都值得拆解。 同時,OpenAI 正在談判向 Sam Altma
Thumbnail
2026/03/24
科技產業從來不缺誇張宣稱,但當 Nvidia 執行長 Jensen Huang 說「我們已經達成 AGI」的時候,整個圈子還是震了一下。不是因為這句話多了不起,而是因為說這話的人、說話的時機、以及這句話背後隱含的商業盤算,都值得拆解。 同時,OpenAI 正在談判向 Sam Altma
Thumbnail
2026/03/23
2026 年三月的第三週,AI 產業接連丟出好幾個震撼彈。Zuckerberg 據報正在訓練自己的 AI CEO 代理、WordPress 開放 AI 代理直接發文、Cursor 推出新一代編碼模型、Meta 宣布用 AI 取代內容審核的人力外包、Samsung 宣布七百三十億美元的超大資本
Thumbnail
2026/03/23
2026 年三月的第三週,AI 產業接連丟出好幾個震撼彈。Zuckerberg 據報正在訓練自己的 AI CEO 代理、WordPress 開放 AI 代理直接發文、Cursor 推出新一代編碼模型、Meta 宣布用 AI 取代內容審核的人力外包、Samsung 宣布七百三十億美元的超大資本
Thumbnail
2026/03/23
這兩天 AI 新聞很多,但如果只看標題,很容易被新模型分數和公司口號帶著走。真正比較大的變化,不是誰又把 benchmark 往上推了幾個百分點,而是幾條線正在同時收斂:模型更像工作系統、工具鏈更像作業系統、基礎設施更像能源戰,連研究部門都不再把終點講成聊天機器人,而是直接講成可以自己跑完整
Thumbnail
2026/03/23
這兩天 AI 新聞很多,但如果只看標題,很容易被新模型分數和公司口號帶著走。真正比較大的變化,不是誰又把 benchmark 往上推了幾個百分點,而是幾條線正在同時收斂:模型更像工作系統、工具鏈更像作業系統、基礎設施更像能源戰,連研究部門都不再把終點講成聊天機器人,而是直接講成可以自己跑完整
Thumbnail
看更多