微软AI芯片Maia 200自研不弃英伟达AMD共解算力荒!

微软首席执行官萨蒂亚·纳德拉近日披露了公司在人工智能(AI)芯片采购方面的策略,引起了业界广泛关注。新媒网跨境获悉,尽管微软已开始在部分数据中心内部署自主研发的AI芯片Maia 200,但其高层明确表示,公司将继续与英伟达(Nvidia)和AMD等第三方芯片制造商保持紧密合作,持续采购它们的芯片产品。这一战略布局,彰显了微软在面对日益增长的AI算力需求和复杂供应链挑战时,所采取的多元化且灵活的硬件策略。
(Image credit: Microsoft)
微软的Maia 200芯片专为推理密集的AI工作负载设计,而非从零开始进行模型训练。
这一举措是微软长期以来旨在增强其基础设施堆栈控制力的一部分。公司已着手在选定的数据中心内,启动部署其首款自主设计的AI芯片——Maia 200。此举标志着微软在自研硬件领域迈出了关键一步。
然而,微软首席执行官萨蒂亚·纳德拉的表态,清晰地传达了公司无意脱离第三方芯片制造商的意图。他强调,即使Maia 200已投入生产使用,英伟达和AMD仍将是微软采购策略中的重要组成部分。
纳德拉表示:“我们与英伟达、AMD建立了良好的合作关系。他们持续创新,我们也同样在创新。”他进一步指出,许多人关注谁处于领先地位,但实际上,企业需要长期保持领先。他强调,尽管微软有能力进行垂直整合,但这并不意味着公司会仅仅专注于垂直整合。这番话语揭示了微软在AI芯片领域所秉持的开放且协作的发展理念。
Maia 200:专注推理,提升效率
Maia 200芯片被微软定义为一款专注于推理的处理器。它的核心设计目标在于高效运行大型AI模型,而非用于从头开始训练这些模型。这意味着Maia 200主要承担的是AI模型部署后的实际应用任务,例如语音识别、图像处理、推荐系统等。
该芯片旨在处理对内存带宽、快速RAM访问以及计算单元与SSD(固态硬盘)支持存储系统之间快速数据传输高度依赖的持续性工作负载。为了实现这一目标,Maia 200在架构上进行了优化,以确保在处理高并发、大数据量的AI推理任务时,能够提供卓越的性能和效率。
微软方面曾分享过Maia 200的性能对比数据,宣称其相较于其他云服务提供商的自研芯片具有一定优势。不过,目前独立的验证数据仍相对有限。这表明,尽管微软对自研芯片充满信心,但其在市场上的实际表现和广泛认可度仍需时间检验。
内部需求旺盛,资源稀缺显现
根据微软高层透露,公司的“超智能(Superintelligence)”团队将率先获得Maia 200硬件的使用权。该团队由穆斯塔法·苏莱曼(Mustafa Suleyman)领导,主要负责开发微软最先进的内部AI模型。
值得注意的是,Maia 200除了支持微软内部的超智能团队外,还将为在Azure云平台上运行的OpenAI工作负载提供支持。OpenAI作为微软的重要合作伙伴,其对算力的需求同样巨大。
尽管如此,微软内部对算力的需求仍然极其旺盛。穆斯塔法·苏莱曼曾公开表示,即使在微软内部,获取最新的硬件资源也被视为一种稀缺资源。这种算力资源的稀缺性,也正是微软继续依赖外部供应商的重要原因之一。
多元化策略:应对算力挑战
大规模模型的训练和运行,需要极高的算力密度、持续的内存吞吐量以及在数据中心之间可靠的扩展能力。当前的芯片设计,在实际应用场景下,尚无单一方案能够完全满足所有这些严苛的要求。因此,微软选择分散其硬件来源,而非完全依赖单一架构,以规避潜在风险并优化性能。
英伟达在芯片供应方面的限制、成本的不断上升以及较长的交付周期,已经推动了许多大型科技公司转向内部芯片开发。然而,这些自研努力并未完全消除对外部供应商的依赖。相反,它们只是在现有复杂硬件生态系统中增加了一个新的层次。
大规模运行AI工具,能够迅速暴露出潜在的弱点,无论是内存处理能力、散热限制,还是互联瓶颈。拥有部分硬件路线图,赋予了微软更大的灵活性,但并不能完全消除影响整个行业的结构性限制。
简而言之,微软开发定制芯片的初衷,是为了缓解算力压力,而非彻底改变现有格局。尤其是在当前,算力需求增长速度持续快于供应增长速度的背景下,这种多元化的硬件策略显得尤为关键。它帮助微软在满足自身庞大AI算力需求的同时,保持了供应链的弹性和技术路线的开放性。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。
本文来源:新媒网 https://nmedialink.com/posts/msft-maia-200-nvidia-amd-solve-ai-crunch.html


粤公网安备 44011302004783号 











