2026年5月1日,xAI 沒有開記者會,沒有發新聞稿,只在技術文件裡多放了一行「grok-4.3」。四小時後,Hacker News 上這篇條目累積 135 點、165 則留言,討論串比模型本身還精彩。
你先看數字。一百萬 token 的上下文窗口、每百萬 token 輸入 1.25 美元、輸出 2.50 美元。如果你把這三個數字跟市面上的對手比一圈,會發現 xAI 在這場 AI 軍備競賽裡的打法跟別人不一樣。一百萬字的記憶體,等於一次餵進三本白先勇
一百萬 token 的上下文窗口是 Grok 4.3 最讓工程師睡不著覺的數字。這什麼概念?一次可以塞進三本《台北人》、一整本《魔戒》首部曲、或者你公司三年份的 Slack 對話紀錄。
過去你會跟 AI 說:「請根據這份報告寫摘要。」但報告太長、必須分段貼、還要提醒 AI 記得前面的結論。現在你可以把整個資料夾、整份合約、整個程式碼庫一次丟進去,讓它自己抓重點。這不是「更方便」,這是護城河。能處理長文本的模型跟不能處理的,中間的差距就像汽車跟馬車。
Hacker News 上一位網友說得直接:「我們團隊的程式碼有八萬行,之前用 Claude 得切五份送,現在 Grok 一次能吃完還能找出跨檔案的 bug。」這就是一百萬 token 的實際價值。它不是給你寫詩用的,是給你解決真實世界裡「資訊太多、人腦不夠用」的問題。
有人質疑:「長窗口有用嗎?模型不會記混嗎?」這問題問到點上了。Google 年初就發過研究,說很多號稱百萬 token 的模型,實際測試時對文件前後段落的理解力會急速衰退,像是一隻魚在缸裡轉圈,以為每次看到的珊瑚都是新的。Grok 4.3 有沒有這個毛病?官方沒給 Needle-in-a-Haystack 測試分數,但從 HN 討論串的回饋來看,實測表現比前代明顯提升。一位用戶貼出截圖:把一份 300 頁的法律文件丟進去,問「合約裡哪裡有競業禁止條款」,Grok 精準指在第 217 頁第三段。你說這能不能信任?至少比你自己從頭翻到尾快。
定價是一面照妖鏡
輸入 1.25 美元、輸出 2.












