AI 光互連時代來臨:光網路如何補上算力與消費之間的關鍵缺口
當生成式 AI 與大型語言模型持續擴張,企業談的不再只是算力有多少,而是 AI 光網路能不能把算力真正送到需要它的地方。從資料中心到電信骨幹,網路正在從「配角」變成 AI 基礎設施的核心層,因為沒有足夠的傳輸能力,再強的模型也難以被即時消費。
這也是為什麼多家廠商都把焦點放在光網路升級上。Ciena 提到其 WaveLogic 6 modem 可達每秒 1.6 terabits 的傳輸能力,並已成為產業基準之一;同時,這類技術在空間與功耗上也優於前代,對需要兼顧擴充與永續的資料中心與電信業者尤其重要。AI 光網路因此不只是升級選項,更像是 AI 時代的輸送命脈。
算力爆發之後,真正的瓶頸是傳輸
AI 產業的成長常被描述為算力競賽,但多篇來源共同指出,真正卡住規模化落地的,往往是網路。當 GPU 集群持續擴大,資料必須在私有、公共與混合資料中心之間頻繁流動,沒有足夠高容量、低延遲的連結,訓練與推論都會受限。
Hectorweyl 引述 Stanford 2023 年研究指出,資料中心網路會消耗資料中心總能耗的 10–15%;而隨著 400G、800G 走向 1.6T,光元件功耗仍會上升,只是增幅低於電子方案。這表示光網路雖然更有效率,但並不是「裝上就解決」,而是必須持續朝更高密度與更低能耗演進。AI 光網路的價值,正在於它能把日益龐大的流量壓力,轉化成可管理、可擴充的基礎設施問題。
從低延遲到低功耗,光網路正在重寫設計邏輯
在 AI 應用裡,速度不只是吞吐量,還包含延遲與穩定性。Hectorweyl 提到,光電路交換(OCS)可用光學交換器直接建立光路,省去封包層處理,與傳統 spine switch 相比可降低 50–70% 的功耗,單跳延遲甚至可低至 100 奈秒。這種架構特別適合 GPU-to-GPU 通訊,因為 AI 訓練最怕節點之間同步不及。
另一方面,Cisco 在白皮書中也提醒,AI 機櫃可能產生 50 到 100 kW 的功率,GPU 溫度可達 85°C 以上,若散熱與光模組配置不當,連線可靠度就會受影響。也就是說,AI 光網路的設計不只是追求更快,而是要在高溫、高密度與高負載環境下維持穩定。可靠度因此成為與頻寬同等重要的指標。
網路不只要更快,還要更聰明、更接近邊緣
如果說資料中心內部的挑戰是「怎麼傳得更快」,那麼邊緣場景的挑戰就是「怎麼更靈活地被調度」。HieFo 的觀點指出,ROADM 與 Optical Spectrum-as-a-Service 等概念,正把原本屬於核心與都會網路的能力往邊緣推進,讓波長可以被遠端重新配置,將靜態光管道變成可程式化的光纖架構。
這種轉變對 AI 很關鍵,因為未來的工作負載不一定集中在單一機房,而可能分散在樓層、園區,甚至跨地區。Nokia 也提到,AI 訓練與推論需要跨越不同資料中心與混合環境傳輸龐大資料,對網路的要求包括零損失、低延遲與高擬真傳輸。當網路本身可以更快感知需求並重新分配資源,AI 才能從集中式算力走向分散式協作。
AIOps 與自動化,正在成為光網路的新標配
光網路變得更高速之後,管理複雜度也同步升高。Ciena 提到,旗下 Blue Planet 等軟體層正導入 AIOps,協助最佳化波長選擇、高速路由與故障預測修復,目標是推進更接近全自動化的網路營運。對於需要在大量光纖與節點間維持服務穩定的業者來說,這不只是效率提升,也是在補足人力短缺。
Nokia 同樣把 AI 放進網路管理本身,主張「用 AI 建網,也用 AI 管網」。這個方向顯示,未來的 AI 光網路不會只是一套更快的傳輸系統,而是一個能自我觀察、自我調整、甚至自我修復的運作平台。當流量型態持續變動,自動化將成為維持 SLA 與營運彈性的必要條件。
結語:AI 的競爭,最後會回到網路能否承接價值
綜合來看,這波光網路升級並不是單純追求更高規格,而是為了回應 AI 時代的根本問題:算力愈來愈強,但價值只有在被送達、被連接、被使用時才會真正產生。從 1.6T 傳輸、OCS 低功耗架構,到 AIOps 自動化與邊緣可重構光纖,產業正在用不同路徑證明一件事:光網路已經不是 AI 的附屬品,而是讓 AI 落地的關鍵層。
未來的競爭,可能不只看誰擁有最多 GPU,也會看誰能把資料更有效率地搬運、切換與保護。對企業而言,理解 AI 光網路的演進,等於提前看見下一輪基礎設施投資的重心。🤖 正在評估企業 AI 落地方案?CloudTop10 整理了台灣最值得信賴的雲端夥伴
📨 Telegram 詢問 → https://t.me/cloudtop10
📊 更多產業指南 → https://cloudtop10.com
📩 合作諮詢 → cloudtop20@gmail.com