以色列AI数据中心GPU网络破瓶颈,双倍带宽、延迟减半!

🌊 算力如雨后春笋般涌现的今天,数据中心早已成了AI时代的“心脏”。可你有没有想过,当你斥巨资买回那些顶级的GPU(图形处理器)时,它们可能正因为路网不通而蹲在机房里“吃空饷”?
异构计算单元的爆发式应用,把传统的网络架构逼到了死角。新媒网跨境获悉,来自以色列的AI基础设施弄潮儿——NeuReality,正试图用一套釜底抽薪的方案,捅破数据中心里那层名为“网络瓶颈”的窗户纸。
核心班底的“野心”:重塑数据中心底座
NeuReality的出身可谓“含着金钥匙”。它的创始团队集结了来自Nvidia-Mellanox、英特尔和Marvell等芯片巨头的顶尖大脑。这群老兵看透了一个扎心的事实:虽然计算的接力棒已经从中央处理器(CPU)交到了GPU和专用AI处理器手里,但由于基建还是老一套,通用型CPU和传统的网络接口卡(NIC)反而成了拖后腿的“猪队友”。
🚀 他们的使命极其纯粹:既然旧衣服不合身,那就干脆为AI基础设施量身定制一套新行头。
在现在的AI数据中心里,最让人心疼的莫过于GPU资源的“空转”。不管是训练那些动辄千亿参数的大语言模型(LLM),还是处理复杂的推理管线,网络带宽和延迟就像是输油管道,一旦卡顿,昂贵的GPU就得停工。这哪里是做生意,简直是在烧钱!
为了破局,NeuReality祭出了首个大招——NR1。这玩意儿可不简单,它摒弃了修修补补的逻辑,采用了专有的异构计算架构。它不仅集成了嵌入式AI-NIC,还自带一整套推理服务和网络软件栈。最妙的是,它能和MLOps、各种AI框架以及xCCL库“无缝对接”。
还没完,他们已经在憋大招开发第二代产品NR2 AI-SuperNIC了。这货专攻GPU直连的“横向通信”(east-west communication),目标直指大规模AI工厂。
扎心的痛点:GPU投资回报率怎么保?
以前咱们盖数据中心,盯着单个服务器节点抠细节就行;现在呢?动不动就是几千个GPU连成片。如果节点之间的互联性能跟不上节点内部的速度,那整个集群就像是一辆法拉利被堵在了晚高峰。
新媒网跨境了解到,NeuReality的客户们正被Nvidia或Broadcom的现有方案搞得左右为难:带宽不够、速度受限,导致GPU这台“印钞机”效率低下。针对这种扩展困境,NR2 AI-SuperNIC应运而生。它完全跳出了传统架构的条条框框,直接给出了1.6Tbps的带宽,延迟更是被压到了惊人的500纳秒以下。
除了技术上的硬碰硬,大伙儿其实更担心这三件事:
- 别让GPU投资打水漂: 毕竟GPU贵得离谱,网络一掉链子,ROI(投资回报率)就得跳水。
- 基建增长得可持续: 模型越滚越大,算力需求呈指数级爆发,怎么在保性能的同时,把电费和冷却成本压下来?
- 拒绝“全家桶”绑定: 谁也不想被某个大厂的封闭生态锁死。
NeuReality聪明就聪明在坚持“软件优先”和“开放标准”。这给了客户极大的灵活性——你可以像搭积木一样混合使用不同的加速器,而不用把整套系统推倒重建。
凭什么叫板巨头?看底牌!
目前的AI网络江湖,基本是Nvidia的ConnectX系列和Broadcom的Thor在“二人转”。虽然它们带宽一直在涨,但延迟基本还卡在1微秒开外。当网速冲向800G甚至1.6T时,这点微小的延迟就会变成致命的短板。
NeuReality的差异化杀手锏在于:带宽翻倍,延迟减半。
不得不提的是,他们在核心引擎里塞进了独有的AI功能,比如数据包处理器和强化的传输层,甚至连PCIe交换机都集成进去了。咱们通过这张表,看看NR2到底有多猛:
🔥 NR2的几个“名场面”:
- UALink集成: 桥接了纵向扩展(scale-up)和横向扩展(scale-out),让CPU和GPU沟通无阻。
- xCCL加速: 这种能加速数学运算的独特能力,业内少见。
- 省电标杆: 每100G功耗仅2.5W,在环保和省钱之间拿捏得死死的。
结语:未来AI大脑该怎么长?
现在的NeuReality正通过POC(概念验证)项目,拉着超大规模数据中心和各路OEM厂商一起玩。毕竟,在这个圈子里,再好的PPT也不如实测数据有说服力。
展望未来,AI算力的进化有两个趋势几乎是确定的:
首先是灵活性与自动化。机架级的设计已经out了,未来的算力得像流水一样,哪里需要就自动流向哪里。其次是可持续性。以后建数据中心,能源效率可能比峰值性能更关键。
在这个“算力为王”的时代,NeuReality更像是一个聪明的修路人,既然车跑得飞快,那路就得修得比车更快、更宽。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/israeli-ai-gpu-network-faster-lower-latency.html


粤公网安备 44011302004783号 











