於近期舉辦的 Google Cloud Next 中,Google 發表兩款 AI ASIC 伺服器運算晶片TPU v8t(訓練)與 TPU v8i(推論),為其第八代 TPU 產品。該系列設計旨在支援推理需求增加的工作負載及 MoE(Mixture of Experts)架構,並著重於擴展性、效率與穩定性。根據 Counterpoint Research 最新《Foundry Monthly Intelligence》報告,TPU v8t(Zebrafish)在 Google 的 AI 晶片策略中具重要地位,亦被視為供應鏈策略調整的關鍵節點,顯示其由原先以博通turnkey ASIC 模式為主,逐步轉向多元合作模式。
針對 Google 採用聯發科模式,由 Google 設計運算晶片、MediaTek 提供 I/O 晶片的主要原因,Counterpoint Research 副總監 Brady Wang 表示,主要考量在於 HBM 採購成本。在博通turnkey 模式下,ASIC供應商負責 HBM 採購並加收約 15%–20% 的費用。隨著 HBM 在整體成本中的占比提升,此加價在大規模部署時影響較為明顯。透過自 Zebrafish 開始將晶片設計與 HBM 採購部分內部化,Google 可降低整體成本。
隨著 Zebrafish 預計於 2026 年底開始量產,Humufish 預計於 2028 年逐步放量,聯發科相關出貨量預期將隨之成長。根據最新全球 AI 伺服器運算 ASIC 出貨預測,TPU v8t 與 v8e 合計出貨量至 2028 年可能接近 500 萬顆,相較 2026 年約 40 萬顆呈現顯著成長,主要反映 Google 在內部應用與雲端客戶中持續推進 TPU 部署。
Counterpoint Research 研究專員David Wu 表示,依目前預測,聯發科至 2028 年可能取得約 26% 的 AI 伺服器運算 ASIC 出貨市佔。需留意的是,該預測尚未納入 Meta MTIA 相關潛在專案。此外,實際出貨表現仍取決於先進封裝產能,包括台積電CoWoS 配額,以及 Humufish 所採用的英特爾EMIB-T 封裝技術的成熟度。
在 TPU v8e(Humufish)產品路線中,MediaTek 擬採用 Intel EMIB-T 封裝技術。Counterpoint Research 資深分析師 Ashwath Rao 指出,目前該方案仍處於設計導入與驗證階段,預計量產時間為 2027 年底。後續發展仍取決於英特爾Foundry Services 先進封裝良率,以及關鍵基板供應商的準備情況,可能影響聯發科的出貨進度。


