DPU加速方案震撼实测:吞吐量77Gbps,能效提升190倍!
在人工智能技术快速迭代的今天,智能体AI(Agentic AI)正推动着工作流复杂度的跃升。新媒网跨境获悉,为高效部署这类应用,云计算基础设施正经历一场软硬件协同的变革——通过DPU加速的Kubernetes服务代理技术,为智能工厂注入全新动能。
智能体AI催生基础设施升级
当人工智能从单一问答迈向具备规划与推理能力的智能体阶段,其工作流复杂度呈几何级增长。以NVIDIA推出的数字人蓝图工作流为例,其整合了包括大语言模型、向量数据库、语音识别等在内的十余项容器化微服务。这些组件需要跨节点协同运作,传统单节点部署模式已难以支撑。
(图示:包含20余组件的智能体AI工作流,各模块需高效数据交互)
外媒报道指出,此类工作流需要分布式基础设施架构,实现计算、存储与网络资源的灵活调度。而位于日本的技术企业软银(SoftBank)在部署本土大模型Sarashina时,同样面临资源利用率与能效平衡的挑战。
DPU加速架构破局效能瓶颈
NVIDIA BlueField-3数据处理单元(DPU)正成为破局关键。该芯片将可编程加速引擎与高能效Arm计算核心结合,显著优化组件间的数据流转效率。新媒网跨境了解到,在NVIDIA为云服务商设计的参考架构中,该DPU承担着南北向网络流量的智能调度任务,成为GPU集群高效运行的"神经网络"。
(BlueField-3 DPU支撑的云基础设施架构)
软硬协同实现质的飞跃
在此背景下,F5推出的BIG-IP Next for Kubernetes(BINK)解决方案引发关注。该方案通过DPU加速实现三大突破:
- 资源解耦:将数据路径卸载至DPU的Arm核心,释放主机CPU资源
- 能效跃升:实测网络能效(吞吐量/瓦特)提升190倍
- 租户隔离:实现真正的云原生多租户资源管理
日本软银的测试数据极具说服力:在模拟100路并发请求的场景下,DPU加速的BINK方案相较传统方案呈现碾压性优势——吞吐量达77Gbps时主机CPU占用趋近于零,网络延迟降低11倍,更实现57Gbps/瓦特的超高能效比。
(软银测试中DPU加速方案性能对比)
智能工厂的未来图景
新媒网跨境认为,这场由DPU引发的架构变革正在重塑智能工厂的底层逻辑。当软银这样的科技巨头通过实测验证了方案可行性,其示范效应将加速技术落地。在追求算力密度与能源效率的今天,软硬件协同优化已不仅是技术选项,更是构建可持续AI基础设施的必然选择。
随着F5与NVIDIA宣布BINK方案的正式商用,全球智能工厂建设将迈入新阶段。这场始于芯片级的创新,终将推动整个AI产业生态的进化。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

Amazon Echo Show 5 (newest model), Smart display with 2x the bass and clearer sound, Charcoal
$ 64.99

Blink Mini 2 (newest model) — Home Security & Pet Camera with HD video, color night view, motion detection, two-way audio, and built-in spotlight — 1 camera (White)
$ 39.99

Blink Mini - Compact indoor plug-in smart security camera, 1080p HD video, night vision, motion detection, two-way audio, easy set up, Works with Alexa – 1 camera (White)
$ 29.99

Blink Mini - Compact indoor plug-in smart security camera, 1080p HD video, night vision, motion detection, two-way audio, easy set up, Works with Alexa – 1 camera (Black)
$ 29.99

Ring Floodlight Cam Wired Plus — Outdoor home or business security with motion-activated 1080p HD video and floodlights, (2021 release) White
$ 119.99

评论(0)