【数据中心】英伟达开放NVLink,2025 Arm CPU算力狂飙!

在当前数字经济浪潮中,人工智能(AI)已成为驱动全球技术革新与产业升级的核心引擎。随之而来的是对极致计算能力和高效数据传输的无限需求。在这样的背景下,高性能计算(HPC)和数据中心领域的技术合作与创新备受关注。新媒网跨境获悉,近日,芯片巨头英伟达(Nvidia)宣布,其关键互连技术NVLink Fusion将向基于安谋科技(Arm)Neoverse架构的中央处理器(CPU)开放。这一消息在全球半导体和AI算力基础设施领域引发了广泛讨论,被视为异构计算发展史上的一个重要里程碑。
AI算力需求井喷与异构计算的必然选择
进入2025年,全球AI技术,特别是生成式AI和大模型训练,对计算资源的需求达到了前所未有的高度。图形处理器(GPU),以其强大的并行计算能力,已然成为AI训练和推理的核心加速器。然而,GPU的性能再强大,也离不开高效的数据传输通道来喂养数据。传统的PCI Express(PCIe)总线作为通用互连标准,在面对AI时代海量数据吞吐和低延迟要求时,其带宽和延迟逐渐暴露出瓶颈。
为了突破这一瓶颈,异构计算架构应运而生。它强调CPU与GPU或其他专用加速器之间的紧密协作,通过专用高速互连技术实现数据的高效交换。英伟达凭借其在GPU领域的领导地位和CUDA生态系统的强大粘性,早已开始布局其专有的NVLink互连技术,旨在提供远超PCIe的带宽和更低的延迟,以最大限度地发挥其GPU的计算潜力。起初,NVLink主要应用于英伟达自家的GPU之间,或与特定CPU(如自家Grace系列或与英特尔、AMD合作的平台)进行连接。
与此同时,安谋科技(Arm)架构也在服务器和数据中心领域崭露头角。凭借其固有的高能效比和高度可定制化特性,Arm Neoverse系列CPU逐渐成为超大规模数据中心运营商(如美国微软、亚马逊和谷歌等)青睐的选项。这些科技巨头寻求通过定制化的Arm CPU来更好地控制其基础设施,优化整体拥有成本(TCO),并实现更高的能源效率。Arm本身不生产CPU,而是通过授权其指令集架构和提供核心设计,赋能众多授权方开发各具特色的Arm处理器。
NVLink Fusion开放:英伟达与安谋的深度融合
在“超级计算大会2025”(Supercomputing ’25)上,英伟达正式宣布,其NVLink Fusion技术将支持安谋科技的Neoverse架构CPU。这一声明标志着两大芯片巨头在AI计算领域的合作进入了一个全新阶段。
具体而言,这项集成允许Arm授权方设计具备与英伟达GPU直接通信能力的处理器。以往,NVLink连接主要局限于英伟达自家的CPU,或使用英特尔(Intel)和AMD处理器的服务器。现在,包括微软、亚马逊和谷歌在内的超大规模数据中心运营商,可以直接将定制化的Arm CPU与其英伟达GPU用于工作站和AI服务器。
这项发展意味着,基于Arm的芯片在数据传输效率上将远超标准的PCIe连接。安谋科技也确认,其定制的Neoverse设计将包含一项协议,允许与英伟达GPU之间实现无缝数据传输。通过直接集成NVLink IP,Arm授权方能够构建原生连接英伟达加速器的CPU片上系统(SoC)。采用这些CPU的客户将能够部署多GPU与单一CPU配对的系统,从而更好地应对各种AI工作负载。
技术原理与优势解析
NVLink Fusion是英伟达NVLink技术的一种高级形式,旨在提供极高的点对点带宽和极低的延迟。它超越了传统的PCIe总线,特别是在多GPU协同工作以及CPU与GPU之间进行高频次数据交换的场景下,其性能优势尤为明显。
当Arm Neoverse CPU能够直接集成NVLink IP后,数据不再需要通过PCIe控制器或北桥芯片进行多次跳转,而是可以在CPU和GPU之间建立一条“高速直通车”。这不仅大幅提升了数据传输速率,还显著降低了传输延迟,从而更好地喂饱GPU强大的计算核心,减少因数据等待造成的性能瓶颈。
对于超大规模数据中心而言,此举带来的益处是多方面的:
- 性能提升: 直接互联带来的带宽和延迟优化,将使得AI模型的训练和推理速度更快,处理更大规模数据集的能力更强。
- 成本效益优化: Arm架构固有的高能效比,结合定制化设计,有助于降低数据中心的运营成本(尤其是电力消耗和散热开支)。同时,减少对单一供应商的依赖,也可能带来更灵活的采购策略。
- 供应链自主可控: 超大规模云服务商能够利用定制化Arm CPU,更好地掌控其硬件堆栈,增强供应链的韧性和自主性,降低潜在的地缘政治风险。
- 创新灵活性: Arm的授权模式为芯片设计提供了极大的灵活性,结合NVLink Fusion,将鼓励更多针对特定AI工作负载优化的CPU-GPU集成方案出现。
对行业格局的深远影响
英伟达与安谋科技的这一深度合作,无疑将对全球半导体产业和AI算力市场产生广泛而深远的影响。
对英伟达而言, 开放NVLink Fusion支持Arm CPU,进一步扩大了其GPU生态系统的覆盖范围和影响力。它不仅巩固了英伟达在AI硬件领域的领导地位,还为其GPU在定制化服务器市场提供了更广阔的部署空间。尽管英伟达自身拥有Grace Blackwell等平台,已将多个GPU与基于Arm的CPU进行整合,但将NVLink Fusion IP开放给更广泛的Arm授权方,意味着英伟达不再受限于自家Grace CPU的产能或市场策略,从而更灵活地应对市场需求。这也有助于缓解其Grace CPU可能面临的潜在竞争压力,因为更多的Arm CPU现在可以作为其GPU的搭档。
对安谋科技而言, 这是一个重大的战略胜利。它大幅提升了Arm Neoverse CPU在高性能计算和AI服务器市场的竞争力,使其能够更有效地与英特尔(Intel)和AMD等x86架构的CPU巨头展开竞争。尤其是在CPU与GPU的深度异构计算领域,Arm芯片现在拥有了与英伟达GPU原生互联的能力,这对于寻求高性能AI解决方案的客户来说极具吸引力。此举也为Arm授权方带来了更广阔的设计空间和市场机会,鼓励他们投入更多资源开发面向AI应用优化的Arm CPU。
对超大规模数据中心(如微软、亚马逊、谷歌)而言, 新媒网跨境了解到,这意味着他们将拥有更多选择和更大的灵活性。这些公司正在积极部署基于Arm的CPU,以更好地控制其基础设施并降低运营成本。现在,他们可以在自己的定制化Arm CPU设计中集成NVLink,从而在不依赖英伟达Grace CPU的前提下,享受到英伟达GPU的最佳性能。这不仅有助于他们实现基础设施的优化,也能更好地支持“主权AI”项目——即政府或云提供商为了数据安全和自主可控,可能要求使用特定CPU(例如Arm CPU)来执行控制平面任务,同时又需要利用英伟达GPU的强大算力。
对整个AI行业而言, 算力基础设施的多元化和优化将进一步加速AI技术的创新和落地。通过提供更多样化的硬件组合和更高效的互联方案,开发者和研究人员将能够构建更复杂、更强大的AI模型。
市场格局与未来展望
从技术层面来看,NVLink的扩展增加了英伟达AI系统中可使用的CPU种类,并允许未来的Arm处理器设计在以GPU为主要计算单元的配置中,直接与英伟达的Grace和Vera处理器以及英特尔的至强(Xeon)CPU展开竞争。这一发展可能会降低其他互连技术或竞争性AI加速器的吸引力。
然而,芯片开发周期通常较长,从设计到大规模部署需要一定时间,这可能会影响新技术的市场采纳节奏。尽管如此,这一合作趋势清晰地表明,在AI算力日益重要的今天,开放性、效率和定制化已成为行业发展的主旋律。新媒网跨境认为,随着技术的不断成熟和市场需求的持续演进,英伟达与安谋科技的合作模式或将成为未来异构计算领域合作的一个范本,推动整个AI生态系统向着更高效、更灵活的方向发展。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/nvidia-arm-nvlink-ai-power-up-2025.html


粤公网安备 44011302004783号 











