Jp¥online 日圓線上

By 豬神 (PIGGOD) | APR 19, 2026
Article Image

原始發表日期:2026-04-27

日本電信巨頭 NTT 宣布將大幅擴增資料中心規模達現有三倍,社長島田明明確指出此舉是為因應 AI「推論用途」的急遽擴張。資深財經主編分析,這項重大資本支出計畫揭示了全球 AI 產業已跨越第一階段的「模型訓練(Training)」,正式邁入商業化落地的「推論應用(Inference)」爆發期。電信運營商正挾其豐沛的土地資產與光纖網路優勢,全面搶攻這波數位基礎建設的兆元商機。

過去三年,AI 產業的資本集中於微軟、Google 等雲端巨頭採購輝達(Nvidia)GPU 以進行龐大的大語言模型訓練。然而,當 AI 應用開始普及至邊緣裝置(Edge Devices)、智慧工廠與日常企業軟體中,市場需要的是更靠近使用者的「邊緣資料中心(Edge Data Center)」來處理大量的「推論」請求。推論任務對網路延遲(Latency)極度敏感,這正是傳統電信商的絕對主場。NTT 的三倍擴張,不僅是興建機房,更是結合其次世代全光網路技術(IOWN),試圖解決 AI 時代最致命的兩大痛點:電力消耗與資料傳輸延遲。

資料中心的瘋狂擴建,正在重塑總體經濟的資源分配,特別是「能源與電網」基礎設施。AI 伺服器的耗電量是傳統伺服器的數倍,資料中心的電力需求已成為各國經濟發展的雙面刃:一方面帶動了龐大的營造、散熱模組與重電設備需求;另一方面,若綠能供應鏈無法跟上,將嚴重威脅國家的減碳承諾與電網穩定。NTT 的鉅額投資,代表日本產業界已將資料中心視為如同高速公路、港口一般的新時代「國力指標」。

未來五年,AI 算力市場將呈現「核心集中、邊緣擴散」的雙軌發展。提供高算力、高耗能的巨型資料中心將集中在綠電充沛的國家;而像 NTT 這樣布局分散式、低延遲邊緣運算的模式,將主導自動駕駛、智慧城市與即時金融交易的底層基礎設施。相關的液冷散熱技術(Liquid Cooling)、光通訊元件與綠能採購(CPPA),將迎來長期的超級循環。