
🌀一、AI投資浪潮的起點:從技術突破到資本狂潮
2022年底,OpenAI推出大型語言模型(LLM)產品ChatGPT,僅兩個月活躍用戶即破億,成為史上成長最快的消費級應用程式之一。
隨後媒體報導指出,OpenAI執行長Sam Altman曾與台積電、三星、SK海力士等企業高層接觸,提出興建數十座晶圓廠的構想,規模可能高達數兆美元,投資領域於是開啟了一場AI狂潮,市場冰火兩重天,跟AI相關類股漲翻天,沒有AI就BI(悲哀),股價如一灘死水。
這一切的源頭始於2017年的一篇論文:「Attention Is All You Need」,由Google團隊提出Transformer架構。該架構捨棄傳統循環神經網路(RNN),改以「自注意力機制(Self-Attention)」處理序列資料,奠定現代LLM基礎。幾乎所有主流模型,包括GPT系列與Google的Gemini,都建立於此架構之上。
由於GPT的表現太過驚艷,市場逐漸相信Sam atman的觀點:
「只要持續擴大模型參數、數據量與算力投入,AI能力便會線性甚至超線性成長」此一觀點被稱為:「Scaling Law(規模定律」
整個矽谷研究資源往大語言模型傾注,華爾街也將資金往大語言模型所需的部分如銀河之水傾注,例如需要的GPU與相關製程如先進封裝CoWos,散熱,HBM,電力,核能。
2026年科技巨頭預計對AI的資本支出預計達6500億美元,
摩根士丹利分析師Todd Castagno表示,超大規模業者的現金資本支出對營收比率將超越網路泡沫時期約32%的水準,在2026-2028年分別達到34%、39%和37%。
🌀二、Scaling Law(規模定律)是否存在極限?
隨著模型規模從數十億參數擴展至數千億、甚至兆級參數,性能確實顯著提升。然而近期問題開始浮現,例如:
- 邏輯計算的缺陷(幻覺): LLM 本質上是基於機率預測下一個字的統計模型,而非進行符號推理 。這導致模型在處理如「1+1」這類具備固定答案的簡單邏輯時,容易產生「一本正經胡說八道」的「幻覺」現象 。
- 邊際效應遞減: OpenAI 內部也承認,單純擴大規模帶來的效益正在遞減 。這解釋了為何 GPT-5 推遲,而 OpenAI 轉向開發如 o1 這類強調「推理時計算」而非單純訓練規模的模型 。
- 資源與成本的重負: 單次訓練的峰值功率已達吉瓦(GW)級別,相當於一個中等城市的用電量 。
這也使業界開始質疑:大規模算力投入是否能解決架構層面的限制?
科技媒體報導指出,Hugging Face執行長Clem Delangue曾公開表示:「泡沫的是大語言模型,不是AI本身。」
換言之,問題或許不在AI,而在於我們是否將所有賭注壓在單一技術路線上。
🌀三、AGI:語言等於智能嗎?
Sam Altman的大語言模型+大算力可達成「AGI(通用人工智慧)」目標。然而部分學界領袖對此持保留態度。
前Meta首席科學家楊立昆認為,大型語言模型僅是語言預測機器,並未真正理解世界。人類智能並非建立於語言本身,而是透過對物理世界的感知、預測與行動能力所構成。
他指出,一隻狗雖然無法寫論文,但能理解基本物理規則——例如物體不會憑空消失。這種對世界模型(world model)的建構能力,是當前LLM所缺乏的。
另一方面,強化學習之父Richard Sutton長期主張:
智能來自於試錯與經驗,人類既有知識在初期可能對初生的智能體有幫助,但卻也可能形成固有經驗的天花版而阻擋成長。
這一觀點可從DeepMind開發的AlphaGo演進過程看出端倪:
- AlphaGo Lee:先學習人類棋譜,再進行自我對弈
- AlphaGo Zero:完全不依賴人類棋譜,只憑規則與自我對弈,三天內超越前代。
這意味著:人類經驗既是加速器,也可能是天花板。
當模型脫離人類既有資料束縛,反而可能探索出超越人類直覺的知識。
🌀四、算力中心論 vs 架構革命論
目前AI發展存在兩種主要敘事:
1️⃣ 算力中心論
代表觀點認為:
- 訓練算力自2010年以來年增4~5倍
- 前沿模型單次訓練峰值功率達吉瓦級
- 分散式多資料中心將成常態
- 更大集群意味著更多可能性
此派認為算法創新與算力擴張是互補關係。
2️⃣ 架構革命論
另一派則指出:
- Transformer無法解決符號推理
- 幻覺問題難以透過規模化消除
- 真正突破需來自新型架構(如世界模型、強化學習、自我監督探索)
🌀結語:AI會迎來範式轉移嗎?
回顧科技史,每一次重大技術突破都伴隨範式轉移(Paradigm Shift),
大型語言模型無疑是重大突破,但若其核心假設——「規模化足以逼近通用智能」——被證明存在結構性限制,那麼未來AI發展可能出現以下轉向:
- 從純語言模型走向多模態世界模型
- 從監督式學習走向強化學習或兩者並行
- 從追求集中式超大模型通用人工智慧(AGI)轉向追求走向分散式、專用化智能體「領域超人智能」
或許未來的智能,不會是單一個超級無敵的通用人工智能,而是一群能單一領域的智能體構建成的網路。
如果如此,那麼今日的LLM熱潮,可能只是AI長期演化中的一個階段性高峰,而非終局。
AI沒有泡沫——
但我們對「AI應該長成什麼樣子」的想像,或許正站在重構的邊緣。
AI 輔助創作程度聲明: Level 2
標準:
Level 0 (無 AI): 全由人類構思並撰寫。
Level 1 (基礎校對): AI 僅用於檢查拼字、文法、標點(如 Grammarly)。
Level 2 (結構建議): 人類撰寫初稿,AI 提供潤飾、重組段落或改變語氣的建議。
Level 3 (共同創作): 人類給予詳細大綱或部分段落,AI 根據提示生成特定章節,人類進行大量修改。
Level 4 (AI 主導,人類編修): AI 生成全文,人類僅負責事實查核、微調修辭與最終確認。
Level 5 (全自動生成): AI 自動生成、發布,人類完全未參與。

















