近年來(lái),在人工智能計算需求不斷增長(cháng)的推動(dòng)下,對GPU和其他計算硬件的需求急劇飆升。僅今年一年,英偉達的股價(jià)就上漲了200%以上,這一點(diǎn)顯而易見(jiàn)。此外,由于數據中心的人工智能訓練需要高速數據傳輸,對人工智能服務(wù)器集群的需求也急劇上升。隨著(zhù)數據中心基礎設施的不斷擴大,光模塊的使用量呈指數級增長(cháng)。目前,200G和400G光模塊已經(jīng)大規模部署,800G光模塊已經(jīng)開(kāi)始進(jìn)入量產(chǎn)和引進(jìn)階段。
為什么需要800G光模塊?
數據中心內的數據傳輸主要分為南北流量和東西流量?jì)蓚€(gè)方向。南北向流量是指數據中心外用戶(hù)與內部服務(wù)器之間的數據傳輸,東西向流量是指數據中心之間以及數據中心內服務(wù)器之間的數據傳輸。隨著(zhù)ChatGPT引爆的AI大模型市場(chǎng),數據中心的東西流量和內部服務(wù)器流量比例增加。
更新數據中心拓撲結構
數據中心計算規模和東西向流量不斷擴大,數據中心網(wǎng)絡(luò )架構也在不斷變化。在傳統的三層拓撲結構中,服務(wù)器之間的數據交換需要經(jīng)過(guò)接入交換機、匯聚交換機和核心交換機。這給匯聚交換機和核心交換機帶來(lái)了巨大的工作壓力。
三層拓撲:如果采用傳統的三層拓撲,進(jìn)一步擴大服務(wù)器集群的規模,則需要在核心層和匯聚層部署高性能設備,設備成本將大幅增加。
兩層Spine-Leaf拓撲:Leaf-Spine拓撲將傳統的三層架構扁平化為兩層架構。在這種設置中,葉子交換機(類(lèi)似于傳統三層架構中的訪(fǎng)問(wèn)層交換機)直接連接到服務(wù)器。骨干交換機,相當于核心層交換機,直接連接到葉交換機,每個(gè)骨干交換機連接到所有葉交換機。
AI計算和800G光模塊
與傳統的三層拓撲結構相比,脊葉結構需要大量的端口。因此,無(wú)論是服務(wù)器還是交換機,都需要更多的光模塊來(lái)進(jìn)行光纖通信。對于使用gpu的廣泛AI訓練應用,在NVIDIA的DGX H100服務(wù)器中,集成了8個(gè)H100 gpu,對計算和存儲網(wǎng)絡(luò )的需求相當于大約12個(gè)800G光模塊和18個(gè)400G光模塊。更多信息可以在這篇文章中找到:NVIDIA DGX H100簡(jiǎn)介。
這表明在葉脊架構下,數據中心對高速光模塊的需求呈指數級增長(cháng)。隨著(zhù)數據中心規模的擴大,特別是對AI大型模型訓練的需求,以及GPU服務(wù)器對更高傳輸速率的需求增加,800G光模塊的采用速度正在加快。
加速部署800G光模塊
在人工智能計算進(jìn)步的背景下,800G模塊的需求正在穩步上升,全球領(lǐng)先的制造商加大了部署力度。
例如,星際光學(xué)公司已經(jīng)在2023年上半年開(kāi)始增加800G光模塊的生產(chǎn),與gpu匹配的800G產(chǎn)品一起穩定地向海外主要客戶(hù)交付。
在OFC 2023上,海信寬帶推出了業(yè)界首款800G QSFP-DD BiDi SR4.2光模塊產(chǎn)品,并展示了800G QSFP-DD SR8、800G OSFP SR8、800G OSFP 2xFR4/DR8、800G QSFP-DD 2xFR4/DR8等基于PAM4信令的800G系列光模塊產(chǎn)品,展示了全面的產(chǎn)品系列。
總結
隨著(zhù)GPU訂單驅動(dòng)需求的確定性,800G光模塊的批量出貨階段將從今年下半年開(kāi)始。800G光模塊作為人工智能計算能力的重要一環(huán),在數據中心規模不斷擴大和人工智能培訓需求持續增長(cháng)的推動(dòng)下,市場(chǎng)增長(cháng)和部署速度將加快。
圖文轉自千家網(wǎng)