高通2025年10月重磅:AI芯片768GB LPDDR,抢滩数据中心!

2025-10-28边缘AI芯片

Image

美国高通公司近日在全球科技界投下重磅消息,正式发布了两款专为AI推理设计的划时代芯片——AI200和AI250。此举标志着这家移动芯片巨头正以其独特的LPDDR内存策略和创新架构,大举进军数据中心AI加速器市场,意图在蓬勃发展的AI领域,与长期占据主导地位的英伟达(NVIDIA)和超微(AMD)展开激烈竞争。

这一系列发布是高通在2025年10月通过官方新闻稿对外公布的,其核心在于为AI推理工作负载提供更具成本效益和扩展性的解决方案。新媒网跨境了解到,高通此次推出的AI加速器在设计理念上,与当前市场主流方案有所不同,尤其是对LPDDR(低功耗双倍数据速率内存)技术的深度应用,引发了行业内的广泛关注与讨论。
Qualcomm Targets NVIDIA, AMD with LPDDR-Based AI Chips; Thermal Durability Looms as a Challenge

高通AI200与AI250的核心技术剖析

根据高通官方新闻稿的详细介绍,AI200加速器单卡最高可支持768GB的LPDDR内存。这一配置的核心优势在于提供了更高的内存容量和更低的成本,从而显著增强了AI推理任务的可扩展性和灵活性。在数据中心环境中,随着AI模型规模的不断扩大,对内存容量的需求日益增长。LPDDR在此处展现出的高密度特性,能够有效满足大型模型部署的需求,同时其相对HBM(高带宽内存)而言更低的成本,也有助于降低数据中心的总体运营开支。

而AI250则更进一步,首次引入了一种创新的近内存计算架构。这种架构的设计目标在于显著提升内存的有效带宽,据称可实现超过10倍的提升,并同步降低整体功耗。近内存计算的核心思想是将部分计算逻辑更紧密地集成到内存附近,从而减少数据在处理器和内存之间传输的距离和时间,有效缓解“内存墙”瓶颈,这对于需要高频次数据访问的AI推理任务而言至关重要。

外媒普遍指出,高通之所以选择LPDDR而非当前高端AI加速器普遍采用的HBM,主要基于两方面的考量:一是LPDDR能够提供更高的内存密度,使得单卡集成更多内存成为可能;二是LPDDR在热效率方面表现更佳。在有限的空间内集成大量高性能计算单元,散热一直是一个巨大的挑战。LPDDR较低的功耗和热量产生,为散热设计提供了更大的灵活性。

全面系统集成与竞争格局

除了内存和NPU架构上的创新,高通在其新闻稿中还详细阐述了这两款机架级解决方案的其他关键特性。为了应对高性能计算产生的热量,AI200和AI250均采用了直接液冷技术,以确保在长时间高负载运行下的热稳定性。在连接性方面,它们支持PCIe(外围组件互连)接口,以实现灵活的扩展能力,同时支持以太网用于横向扩展连接,这对于构建大规模AI集群至关重要。此外,机密计算功能的引入,为需要高安全性的AI工作负载提供了保障,能够保护数据和模型的隐私。在供电方面,整个机架的功耗达到了160千瓦,这表明了其强大的计算能力。

然而,新媒网跨境获悉,围绕高通的LPDDR策略,市场也存在一些审慎的观点。外媒的分析指出,尽管LPDDR在内存密度和热效率方面具备优势,但高通的机架级解决方案在与英伟达和AMD等现有主流产品相比时,可能仍面临一些挑战。具体而言,由于LPDDR的接口通常较窄,这可能导致内存带宽低于HBM,进而影响某些对带宽极其敏感的AI模型性能。同时,较窄的接口也可能带来更高的访问延迟。更为关键的是,在外媒的观察中,LPDDR在数据中心连续高强度、高温度的服务器运行环境下,其长期可靠性仍是一个需要关注的问题。相较于为数据中心设计的高耐久性HBM,LPDDR作为一种起源于移动设备的内存技术,其在极限工况下的表现还有待市场验证。

行业背景与市场展望

当前,全球数据中心AI加速器市场正经历前所未有的增长。AI推理,即利用训练好的模型对新数据进行预测和决策的过程,在推荐系统、自然语言处理、图像识别等诸多应用中扮演着核心角色。随着AI技术在各行各业的普及,对高效、低成本AI推理解决方案的需求日益旺盛。

高通作为在移动通信和计算领域拥有深厚技术积累的企业,此次将其技术优势延伸至数据中心AI领域,体现了其对未来AI市场战略布局的雄心。通过差异化的LPDDR内存策略,高通试图在英伟达和AMD所主导的市场中开辟新的赛道,尤其是在对成本和功耗敏感的AI推理应用场景中,寻找突破口。

总而言之,高通AI200和AI250的发布,是AI芯片市场竞争日益激烈的一个缩影。高通以其独特的LPDDR内存和近内存计算架构,为AI推理市场带来了新的选择。尽管外媒对LPDDR在数据中心极端环境下的性能与可靠性存在一定疑问,但这种创新性的尝试无疑将推动整个AI硬件生态系统向前发展,并可能重新定义AI推理加速器的设计标准。

新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

本文来源:新媒网 https://nmedialink.com/posts/qualcomm-2025-ai-chips-lpddr-data-center-push.html

评论(0)

暂无评论,快来抢沙发~
高通发布AI200和AI250芯片,采用LPDDR内存技术,进军数据中心AI加速器市场,与英伟达和AMD竞争。新芯片旨在为AI推理提供更具成本效益的解决方案,采用液冷技术,支持PCIe接口和以太网。LPDDR策略在内存密度和热效率方面有优势,但长期可靠性仍待市场验证。特朗普任期内,AI加速器市场竞争激烈。
发布于 2025-10-28
查看人数 11
人民币汇率走势
CNY
亚马逊热销榜
共 0 SKU 上次更新 NaN:NaN:NaN
类目: 切换分类
暂无数据
暂无数据
关注我们
新媒网跨境发布
本站原创内容版权归作者及NMedia共同所有,未经许可,禁止以任何形式转载。