以下文章為自己與chatgpt討論的結果,當作個人投資日誌用,請勿轉載且請勿引用為任何投資理財用途。
以Google 最新公開的 TPU v8i,將 on-chip SRAM 提升至 384MB,並搭配 288GB HBM,官方明確指出更大的晶片內 SRAM 可讓更多 KV Cache entirely on silicon,降低長上下文推論時的核心等待時間。這代表 AI 晶片競爭正從單純算力競爭,進一步走向 「大容量晶片內記憶體池」 的架構競賽。在此趨勢下,受惠鏈不應僅聚焦 HBM 與先進封裝,on-chip SRAM 所對應的 Memory Compiler / SRAM Compiler / Foundation IP 將成為另一條高毛利且具長期擴張性的投資主線。台灣供應鏈中,某公司因具備完整 Memory Compiler 產品線,且官方已揭露持續推進 3nm Memory Compiler 以對應 HPC IC 需求,因此是本題材下最具代表性的潛在受惠股。
一、產業觀點:TPU v8 顯示 AI 晶片架構開始重押 on-chip SRAM
Google TPU 8i 的設計重點之一,是把 on-chip SRAM 拉高到 384MB,並配合更大 HBM 容量以支援推論與高並發 reasoning 工作負載。Google 官方對此的描述非常直接:更大的 on-chip SRAM 可以承載更大的 KV cache,進而降低外部記憶體存取造成的延遲。這說明未來 AI 晶片的效能瓶頸,愈來愈不只是 FLOPS,而是資料是否能停留在晶片內部更久。
對供應鏈的意義在於:
大 SRAM 不只是多放記憶體而已,而是代表更高密度 bitcell、更多 cache instance、更多 register file、更多功耗/速度/面積最佳化需求。 這背後直接連動的,是能在先進節點提供穩定、可量產、可客製化 memory macro 的 compiler 與 IP 平台。
二、受惠主軸:為台灣最純 SRAM Compiler 題材某公司官網明確列有 Memory Compiler 產品,涵蓋 SP-SRAM、1P Register File、2P Register File、DP-SRAM、Cache instance 等,並強調可提供密度、功耗與效能最佳化。換言之,這家公司並非泛泛的「記憶體 IP」公司,而是實際提供on-chip SRAM 生成工具與記憶體編譯器的供應商。
更重要的是,某公司 2024 年年報已揭露,公司正持續開發 3nm Memory Compiler,以滿足 high-performance computing ICs 的需求。這代表公司產品藍圖已經對準高效能運算與先進節點,不僅停留在成熟製程應用。因此,若市場開始把 TPU v8 的 384MB SRAM 視為新世代 AI 晶片的結構性趨勢,則此公司將是台灣最容易被資本市場直接連結的純題材標的。
三、商業模式解析:某公司 不只賺一次授權,還可能吃到後續權利金
依據網路上提供的財報,公司收入主要分為 技術服務收入 與 權利金收入。其中,權利金收入來自授權標準化 Silicon IP給客戶,待客戶使用該 IP 量產晶片後,再依合約收取權利金;而技術服務收入則來自導入、整合、客製與設計支援等服務。 114 年度 合併營收為 17.82 億元,其中 技術服務收入 15.37 億元、權利金收入 2.45 億元;同年研發費用 13.51 億元,約占營收 76%,顯示公司仍維持高研發投入的 IP 商業模式。這代表若 AI 晶片客戶導入 的 SRAM / Memory Compiler,潛在可受惠的部分包括:
1. 前段導入與授權收入
客戶在開案、平台導入、compiler 參數化與實作整合階段,即有機會形成技術服務或授權收入。
2. 後段量產權利金收入
一旦客戶量產,可依合約收取權利金。若 AI ASIC、雲端推論晶片出貨擴大,則此類權利金收入具持續放大潛力。因此,TPU v8 所代表的「更大 SRAM」方向,這不是單一新聞事件,而是可能強化其 前端 IP 授權 + 後端量產 royalty 的雙引擎模式。













