撼動輝達霸權?美商Meta結盟亞馬遜AWS,AI晶片自研與定製化的板塊位移

By 豬神 (PIGGOD) | APR 19, 2026
Article Image

原始發表日期:2026-04-25

科技巨頭Meta(前臉書)近期宣佈,將擴大與亞馬遜雲端運算服務(AWS)的戰略合作,合約核心直指 Meta 將採用亞馬遜自主研發的定製化 AI 晶片(如 Trainium 與 Inferentia)來處理其龐大的 AI 工作負載。此舉在半導體業界投下震撼彈,意味著掌握全球最大 AI 算力需求的科技巨頭們,正積極尋求「去輝達化(De-Nvidia)」,以降低高昂的資本支出與供應鏈過度集中的風險。

目前全球生成式 AI 的訓練與推論市場,幾乎被輝達(Nvidia)的 GPU(如 H100、B200)壟斷。然而,輝達晶片極其昂貴且供不應求,導致各大雲端服務供應商(CSP)如微軟、Google 與亞馬遜,紛紛投入巨資研發自家的專用積體電路(ASIC)。Meta 本身正在開發強大的開源大模型(Llama 3),需要海量的算力支援。雖然 Meta 是輝達最大的客戶之一,但為了壓低模型訓練與日常推論的硬體成本,Meta 選擇與 AWS 結盟,利用 AWS 在客製化矽晶片上的成熟技術,這象徵著 CSP 巨頭間的「算力軍備競賽」正從單純採購硬體,轉向深度綁定的底層架構合作。

從總體經濟與企業財務的視角切入,AI 基礎設施的資本支出(CAPEX)已成為決定科技巨頭生死存亡的關鍵指標。高昂的 GPU 採購成本嚴重侵蝕了企業的毛利率。Meta 採用亞馬遜的定製晶片,是典型的「供應鏈多元化」與「成本優化」戰略。定製化 ASIC 雖然在通用性上不如輝達的 GPU,但在處理特定 AI 演算法(如 Meta 社群平台上的推薦系統或語言模型推論)時,其單位算力的能耗比(Performance-per-Watt)與成本效益遠高於通用 GPU。這有助於 Meta 改善財報上的自由現金流,同時也為亞馬遜 AWS 帶來穩定的巨額雲端合約收入。

此合約將加速 AI 半導體市場的「碎片化」與「垂直分工」趨勢。輝達的絕對壟斷地位將受到來自兩方面的夾擊:一是 AMD 等傳統晶片廠的強力追趕,二是雲端巨頭(CSP)自研 ASIC 的替代效應。未來,AI 運算將呈現「兩極化」:極度複雜且需要極高彈性的前瞻模型訓練,仍將高度依賴輝達 GPU;但大規模部署、架構已定的商業推論(Inference),將大量轉移至成本更低的自研或定製化 AI 晶片上。相關的矽智財(IP)供應商(如 ARM)、特殊應用晶片設計服務廠(如世芯、創意)以及先進封裝供應鏈,將迎來長期且巨大的成長紅利。