Jp¥online 日圓線上

By 豬神 (PIGGOD) | APR 19, 2026
Article Image

原始發表日期:2026-04-28

美國科技巨頭 Meta(前身為 Facebook)傳出與 Amazon Web Services (AWS) 達成協議,將採用 AWS 自主研發的 AI 半導體進行部分運算任務。資深財經主編剖析,這項破天荒的跨界合作,揭開了矽谷巨頭「去輝達化(De-Nvidia)」戰略的新篇章。當算力(Computing Power)成為新時代的石油,這些雲端霸主不再甘心被單一硬體供應商掐住脖子,他們正透過彼此的結盟與自研晶片,試圖奪回 AI 基礎設施的定價權與主導權。

在全球生成式 AI 的軍備競賽中,輝達(Nvidia)的 GPU(如 H100、B200)處於絕對的壟斷地位,其極高的毛利率本質上是在吸取整個 AI 產業的利潤。Meta 作為開源大模型(Llama)的領頭羊,每年需耗費數百億美元採購輝達晶片。而 AWS 則是全球最大的雲端服務供應商,近年來積極研發自家的 AI 訓練晶片(Trainium)與推論晶片(Inferentia)。Meta 選擇將部分工作負載(Workload)轉移至 AWS 的自研晶片上,一方面是為了降低龐大的硬體採購成本,另一方面也是對輝達釋放強烈的談判籌碼信號:我們隨時有替代方案。這象徵著 AI 晶片市場正從「單一寡占」走向「生態系群雄割據」。

這場算力基礎設施的博弈,深刻影響著全球科技巨頭的資本支出(CapEx)與現金流結構。自研晶片(ASIC)雖然研發成本極高,但在特定 AI 任務(如大規模推論)上的能耗比與成本效益遠勝通用型 GPU。Meta 與 AWS 的結盟,本質上是一種「算力資源的槓桿互換」。當雲端巨頭們透過使用彼此的底層硬體來壓低成本時,將引發 AI 算力價格的通縮效應(Deflationary Effect)。這對下游的 AI 新創公司與軟體開發者是極大的利多,因為運算成本的下降將加速 AI 應用的落地與普及,進而推動整體數位經濟的 GDP 成長。

預期微軟(Microsoft)與 Google 等其他巨頭也將加速推進其自研晶片(如 Maia、TPU)的跨平台授權與合作。半導體產業的價值鏈將發生劇烈位移,傳統的晶片設計公司(IC Design)若無法提供無可取代的生態系護城河(如 CUDA),將面臨雲端巨頭「向下整合」的邊緣化危機。而像台積電(TSMC)這類專注於先進製程代工、不與客戶競爭的晶圓代工廠,則將成為這場巨頭混戰中最大的軍火供應商與實質贏家。