DPU加速方案震撼实测:吞吐量77Gbps,能效提升190倍!

2025-07-08AI工具

Image

在人工智能技术快速迭代的今天,智能体AI(Agentic AI)正推动着工作流复杂度的跃升。新媒网跨境获悉,为高效部署这类应用,云计算基础设施正经历一场软硬件协同的变革——通过DPU加速的Kubernetes服务代理技术,为智能工厂注入全新动能。


智能体AI催生基础设施升级

当人工智能从单一问答迈向具备规划与推理能力的智能体阶段,其工作流复杂度呈几何级增长。以NVIDIA推出的数字人蓝图工作流为例,其整合了包括大语言模型、向量数据库、语音识别等在内的十余项容器化微服务。这些组件需要跨节点协同运作,传统单节点部署模式已难以支撑。
智能体AI工作流示意图
(图示:包含20余组件的智能体AI工作流,各模块需高效数据交互)

外媒报道指出,此类工作流需要分布式基础设施架构,实现计算、存储与网络资源的灵活调度。而位于日本的技术企业软银(SoftBank)在部署本土大模型Sarashina时,同样面临资源利用率与能效平衡的挑战。


DPU加速架构破局效能瓶颈

NVIDIA BlueField-3数据处理单元(DPU)正成为破局关键。该芯片将可编程加速引擎与高能效Arm计算核心结合,显著优化组件间的数据流转效率。新媒网跨境了解到,在NVIDIA为云服务商设计的参考架构中,该DPU承担着南北向网络流量的智能调度任务,成为GPU集群高效运行的"神经网络"。
云计算参考架构示意图
(BlueField-3 DPU支撑的云基础设施架构)


软硬协同实现质的飞跃

在此背景下,F5推出的BIG-IP Next for Kubernetes(BINK)解决方案引发关注。该方案通过DPU加速实现三大突破:

  1. 资源解耦:将数据路径卸载至DPU的Arm核心,释放主机CPU资源
  2. 能效跃升:实测网络能效(吞吐量/瓦特)提升190倍
  3. 租户隔离:实现真正的云原生多租户资源管理

日本软银的测试数据极具说服力:在模拟100路并发请求的场景下,DPU加速的BINK方案相较传统方案呈现碾压性优势——吞吐量达77Gbps时主机CPU占用趋近于零,网络延迟降低11倍,更实现57Gbps/瓦特的超高能效比。
性能对比示意图
(软银测试中DPU加速方案性能对比)


智能工厂的未来图景

新媒网跨境认为,这场由DPU引发的架构变革正在重塑智能工厂的底层逻辑。当软银这样的科技巨头通过实测验证了方案可行性,其示范效应将加速技术落地。在追求算力密度与能源效率的今天,软硬件协同优化已不仅是技术选项,更是构建可持续AI基础设施的必然选择。

随着F5与NVIDIA宣布BINK方案的正式商用,全球智能工厂建设将迈入新阶段。这场始于芯片级的创新,终将推动整个AI产业生态的进化。


新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

本文来源:新媒网 https://nmedialink.com/posts/4279.html

评论(0)

暂无评论,快来抢沙发~
文章探讨了智能体AI推动工作流复杂度提升,如何通过DPU加速的Kubernetes服务代理技术优化云计算基础设施,提升智能工厂的能效与性能。
发布于 2025-07-08
查看人数 1973
人民币汇率走势
CNY
关注我们
新媒网跨境发布
本站原创内容版权归作者及NMedia共同所有,未经许可,禁止以任何形式转载。