「真他媽該死,到底怎麼辦好焦慮啊啊啊啊。」
一個工程師上個月在網路上丟了這句話。他剛看完 AI 兩次 prompt 寫完一個功能的 demo。隔壁討論串的標題更短:「以前要請 4 個,現在只需要 1 個。」
然後 2026 年 3 月 23 日,全球賣最多 AI 晶片的那個人,在 Lex Fridman 的 podcast 上丟了一句話:
「I think it's now. I think we've achieved AGI.」
那一週 NVIDIA 股價上漲了。
我訂閱的五個 AI newsletter 裡,有四個把這句話做成了標題。網路上「要請 4 個變 1 個」的恐慌在這一週跳了一個層級,黃仁勳也說了 AGI 到了,那種焦慮從那天之後看起來突然合理了很多。
但黃仁勳在同一集 podcast 裡還說了另一句。這句沒上任何標題:
「100,000 個 AI agent 建出 NVIDIA 的機率是零。」
同一個人,同一段錄音。前一句「AGI 到了」,後一句「十萬個 AI 建不出 NVIDIA」。你沒辦法說他偏激或不懂。他就是全世界最懂 AI 基礎設施的那個人,大部分的模型是跑在他賣的晶片上訓練出來的。
他在同一集 podcast 裡建好一座城,又炸了它。
答案在兩句話中間的縫隙:他說的「AGI」跟你腦中的「AGI」,量的根本是兩個東西。
「你說十億,你又沒說永遠」
Lex Fridman 的問題很具體:「AI 能不能從零開始,建立並經營一家價值十億美元的科技公司?」
黃仁勳說可以。然後馬上加了一個但書:
「You said a billion, and you didn't say forever.」
你說十億,你又沒說永遠。
他說的是,現在的 AI 能搞出一個病毒式 app、一個數位網紅、一個 Tamagotchi 遊戲,衝到十億美元估值。然後可能馬上倒。
但要建造一家持續運作的公司——有物理世界的工廠、有供應鏈、有三萬名工程師在辦公室裡為一條電路板的佈線吵架——十萬個 AI agent 一起上也做不到。
我重聽這一段兩次。第二次我注意到一個細節:Fridman 問題的主語是「AI」,黃仁勳答案的主語換成了「十萬個 AI agent」。他需要用「十萬個一起」才敢說做不到。代表他心裡的單一 AI 上限已經很高了。
然後他給這個東西一個名字:AGI。一個能短暫衝過經濟門檻但維持不了的東西。
GPT-5 考了 57 分,記憶力那題交白卷
如果黃仁勳的定義太窄,學術界怎麼打分?
2025 年 10 月有一件很罕見的事。一份 33 人共簽的論文出現在 arXiv 上。我看到簽名欄停下來重看了一次——LLM 最大的懷疑派 Gary Marcus 和深度學習之父 Yoshua Bengio 平常在社群媒體上隔空對罵,這次共同簽下同一份文件。
他們同意的事只有一件:AGI 必須用心理計量學來衡量,像給人類做智力測驗那樣。
他們把 AGI 拆成 10 個認知維度,一題一題給分。
GPT-5 的總分是 57%。
讀寫能力 10/10。數學能力 10/10。常識知識 9/10。
長期記憶儲存 0/10。
零分。
這樣說吧。昨天下午,我跟 Claude 討論了三個小時的產品架構。第一個小時在辯論資料表該拆還是不拆。第二個小時我畫了三版 wireframe,它幫我挑了一版。第三個小時我們吵完要用哪個 API provider。我關掉對話去倒咖啡,回來打開一個新對話繼續問。它的第一句話是:「很高興認識你,我是 Claude。你想聊什麼?」
論文裡有一個詞叫 「嚴重失憶」。開發者用兩種手法掩蓋這件事:把整個 codebase 塞進 context window 靠工作記憶硬撐,或者接 RAG 讓 AI 去資料庫搜答案。論文的評語就一句話。這些都是「掩蓋失憶的拐杖」。
拐杖不算腿。
但它寫 code 的速度又讓人頭皮發麻。那三個小時的架構討論,換成我自己從零查文件、畫流程、跑 proof-of-concept,要花兩天。一位五年經驗的工程師寫:「自從去年底 Opus 4.5 推出後,整個組內四個人幾乎半年沒有手寫程式碼。」另一個討論串更直接:「以前要請 4 個,現在只需要 1 個。」
把「數學 10 分,記憶 0 分」這張成績單攤平在桌上看,答案不在總分裡。在形狀裡。AI 的認知輪廓是鋸齒狀的:某些尖刺已經超越人類,某些凹陷接近於零。研究者給這個形狀取了名字:jagged cognitive profile。
2026 年 3 月,Google DeepMind 發表了自己的認知框架,也把 AGI 拆成 10 個維度:知覺、生成、注意力、學習、記憶、推理、後設認知、執行功能、問題解決、社會認知。
DeepMind 的結論跟 Hendrycks 團隊一致:AI 在某些維度已經超越多數人,其他維度遠遠落後。但這份論文多給了一個細節:10 個維度裡,5 個的測量工具連學界自己都還沒造好(後設認知、注意力、學習、社會認知、問題解決)。DeepMind 為此開了一個 20 萬美元的 Kaggle 獎金,請外部研究者幫忙補洞。
你沒辦法證明一個東西不存在——如果你還沒造出量它的尺。
這篇分析還有4個章節:
- 為什麼定義 AGI 的人比你想的更有錢 — OpenAI 跟微軟合約裡有一條秘密定義,把 AGI 綁在 1000 億美元利潤上。這就是為什麼 Altman 永遠說「接近」但不說「到了」
- 連建造 AGI 的人都在放棄這個詞 — Anthropic、OpenAI、Salesforce 高層集體改口叫 AGI「過時」「沒用」「催眠」。Altman 一年前才寫「我們知道怎麼建」。時間膠囊炸彈自己爆給你看
- 27% → 57%,兩年:加速度本身值得注意 — Hassabis 多年堅信 LLM 不可能產生智慧,後來承認「不合理地有效」。連最懂的人都改過立場,你要信誰
- 你老闆腦中那個 AGI 版本,比 AGI 本身更危險 — 三把尺指向三種決定。影響你薪水的不是 Huang 的話,是你客戶的 CTO 信了誰的尺
→ 完整分析(1 本書 + 2 篇論文 + 1 個 podcast + 4 篇文章的交叉比對)在讀角獸
讀角獸——帶著一個問題讀完所有英文來源,找出不同作者互相矛盾的地方,寫成有立場的判斷。更多主題 → ducorn.com





















