美国微软Maia 200芯片,破200GB HBM,AI算力狂飙!

美国微软公司近期公布了其自主研发的最新一代人工智能芯片Maia 200,此举标志着微软在数据中心AI工作负载专用芯片领域的布局进一步深化。新媒网跨境获悉,根据微软发布的消息,这款芯片采用中国台湾台积电的3纳米工艺制造,并集成了原生FP8和FP4张量核心,旨在显著提升AI训练和推理的性能与效率。
与此同时,有外媒援引行业消息称,韩国SK海力士很可能是Maia 200芯片高带宽存储器(HBM)的独家供应商。据报道,Maia 200预计将使用SK海力士提供的216GB HBM3E内存。
外媒进一步指出,SK海力士若成为微软HBM的唯一供应商,或将加剧定制AI芯片(ASIC)市场的竞争,尤其是在韩国两大存储巨头SK海力士与三星电子之间。据称,三星电子在为美国谷歌公司TPU系列供应HBM方面,占据了更大的市场份额。
Maia 200芯片的推出,也折射出定制AI加速器设计中HBM容量日益增长的行业趋势。正如外媒所观察,微软上一代Maia加速器配置了64GB HBM2E内存。相比之下,根据微软官方声明,Maia 200显著扩展了内存容量,采用了全新的架构设计,将216GB的HBM3E与272MB的片上SRAM相结合,HBM3E带宽可达7 TB/s。作为对比,报道提到,美国谷歌公司发布的TPU v7 Ironwood配备了192GB HBM3E,而美国亚马逊AWS的最新Trainium3加速器则集成了144GB HBM,相较于前一代的96GB有了提升。这些数据共同印证了高性能AI芯片对大容量、高带宽存储的需求持续攀升。
在性能表现方面,微软表示Maia 200在FP4性能上达到第三代亚马逊Trainium的三倍,FP8性能也超越了谷歌的第七代TPU。微软进一步强调,Maia 200是其迄今为止部署的效率最高的推理系统,其每美元性能比当前基础设施中使用的最新一代硬件高出30%。
基于这些性能提升,微软指出Maia 200是其异构AI基础设施的重要组成部分,并将支持包括最新OpenAI GPT-5.2在内的多种模型。值得注意的是,据美国彭博社报道,微软已经开始设计Maia 200的下一代芯片Maia 300。该报道还透露,即使微软的自研芯片计划遇到阻碍,公司仍有其他选择,包括根据合作协议获取美国OpenAI公司正在开发的芯片设计。
Maia 200的发布正值超大规模数据中心服务商纷纷加码定制AI加速器之际。集邦咨询(TrendForce)的数据显示,随着谷歌和美国Meta等北美公司扩大其内部ASIC的研发投入,预计到2026年,ASIC型AI服务器的市场份额将达到27.8%,创下自2023年以来的最高水平。同时,ASIC AI服务器的出货量增速预计也将超过基于GPU的系统。这表明定制化芯片在满足特定AI工作负载需求、优化成本和性能方面展现出越来越重要的战略价值。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/microsoft-maia-200-200gb-hbm-ai-chip-boost.html


粤公网安备 44011302004783号 











