NVIDIA斥资40亿美元布局AI光学互连

新一代AI算力架构引领光学互连应用扩展
随着人工智能产业的快速发展,NVIDIA推出的下一代AI计算机架构,正展现出提升芯片间互连密度和数据传输速度的趋势。据外媒最新的高性能互连市场研究显示,AI计算集群的规模化部署使得数据中心在设计时更加注重机架内的芯片互连(Scale-Up)以及跨机架的大规模互连(Scale-Out)。传统的基于铜缆的电子传输因物理特性限制,难以满足下一代AI基础设施需要处理的海量数据量。基于此,光学传输技术的重要性日益凸显。
预计到2030年,共封装光子(CPO)技术在AI数据中心光通信模块中的渗透率有望达到35%。NVIDIA推出的最新NVLink 6通信协议,可以实现每通道高达400G的SerDes峰值传输速率,并配备每块GPU高达3.6 TB/s的带宽能力。然而,在如此高的传输速率下,电子信号在铜缆上的衰减非常快,导致它的传输距离受限于1米以内。尽管如此,技术企业如Broadcom仍对SerDes技术的进步抱有信心,持续在更高传输速度的物理极限中取得突破。预计在2028年之前,铜缆将由于低成本和较低功耗的优势,继续作为机架内部超短距离互连的主流解决方案。
不过,随着芯片互连规模的扩展,尤其是系统从单一机架扩展到多机架部署(如由8台NVIDIA NVL72系统组成的576-GPU集群),铜缆解决方案逐渐暴露出性能和带宽方面的限制。相比之下,通过波分复用(WDM)技术的光传输能够在一根光纤内实现多个波长的传输,从而大幅提升传输密度,这是铜缆解决方案无法企及的技术优势。
随着带宽需求的不断增加,各大主流云服务提供商(CSP)正与新兴创新型企业合作,大力研发先进的光学互连解决方案,并积极为CPO技术的广泛应用奠定基础。
光学技术获青睐,行业巨头加码布局AI基础设施
NVIDIA在CPO和硅光技术上的最新进展引发了业内的广泛关注。通过采用台积电COUPE 3D封装技术,NVIDIA成功实现了逻辑芯片和光子芯片的垂直堆叠,并在硅光子芯片上集成了200G PAM4微环调制器(MRMs)。这一创新大幅提升了光学引擎的带宽密度,同时优化了体积和功耗。此外,NVIDIA最近宣布了一项总额高达40亿美元的巨额投资,其中约20亿美元分配给Lumentum和Coherent,并通过多年期的采购协议确保能够优先获取先进的激光器和光学元件。这些战略性动作展现了其保障未来光学互连关键元件供应的决心,同时也表明未来AI计算基础设施将更加依赖光学技术。
随着采用硅光子技术和CPO的光学互连技术逐渐成熟,相关技术将在NVIDIA Rubin一代产品中率先应用于跨机架的Scale-Out光学互连。同时,也计划将其纳入未来的Scale-Up互连架构中,以进一步提升带宽密度。不过,到2026年,CPO在AI数据中心所采用的光模块中的占比预计仍相对低,仅为0.5%左右。
随着数据传输需求的高速增长,基于硅光子的CPO解决方案有望在Rubin Ultra或Feynman世代中逐步实现跨多机架的Scale-Up光学互连。而展望未来,更多先进的光学技术,包括高级光学互连架构和光学I/O,有可能进一步推动行业升级。据预测,到2030年,基于硅光子的CPO技术在AI数据中心的市场渗透率将接近35%。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/nvidia-invests-40b-in-ai-optical-links.html


粤公网安备 44011302004783号 













