谷歌云赋能Hugging Face!开放AI模型用量暴增10倍!

2025-11-14云计算

谷歌云赋能Hugging Face!开放AI模型用量暴增10倍!

近日,全球领先的开放模型平台Hugging Face宣布与科技巨头谷歌云(Google Cloud)深化战略合作,旨在共同推动企业级开放人工智能模型的开发与应用。此次合作将聚焦于简化在谷歌云基础设施上使用Hugging Face开放模型的过程,并提升Hugging Face用户在部署AI模型时的效率与性能,致力于构建一个更加开放、易用的AI未来。

Hugging Face的Jeff Boudier指出,从原创的Transformer架构到Gemma模型,谷歌在开放AI领域做出了诸多具有深远影响的贡献。Hugging Face坚信未来所有企业都将能够构建和定制自己的AI解决方案。通过此次战略合作,Hugging Face的目标是让这一愿景在谷歌云平台上变得更加触手可及。

谷歌云产品管理高级总监Ryan J. Salva也表示,Hugging Face一直是全球范围内推动企业大小用户访问、使用和定制超过200万个开放模型的核心力量,而谷歌云也为此社区贡献了1000多个模型。双方将携手把谷歌云打造成利用开放模型进行AI构建的最佳平台。

谷歌云客户服务升级:加速开放模型集成

谷歌云的客户目前已在其多项领先的AI服务中广泛采用Hugging Face的开放模型。例如,在Vertex AI的Model Garden中,最受欢迎的开放模型可通过简单几步完成部署。对于那些寻求对AI基础设施拥有更深层控制的客户,谷歌Kubernetes引擎(GKE)AI/ML服务也提供了类似的模型库,或者可以直接使用Hugging Face维护的预配置环境。此外,客户还可以通过Cloud Run GPUs运行AI推理工作负载,实现无服务器的开放模型部署。新媒网跨境了解到,双方合作的核心在于为客户提供多样选择,同时确保无缝体验,充分利用每项服务的独特功能。
google-cloud-partnership

开放模型高速通道:谷歌云专属CDN网关上线

根据官方数据,过去三年中,谷歌云客户对Hugging Face平台的使用量增长了十倍。目前,这每月意味着数十PB的模型下载量以及数十亿次的请求。为确保谷歌云客户在使用Hugging Face的模型和数据集时获得最佳体验,Hugging Face与谷歌云正携手打造一个基于Hugging Face的Xet优化存储和数据传输技术以及谷歌云先进存储和网络能力的CDN(内容分发网络)网关。

这一CDN网关将直接在谷歌云上缓存Hugging Face的模型和数据集,从而显著缩短下载时间,并增强谷歌云客户模型供应链的稳健性。无论是使用Vertex AI、GKE、Cloud Run,还是在Compute Engine的虚拟机中构建自定义堆栈,谷歌云客户都将受益于更快的首次令牌响应时间(Time-to-first-token)和简化的模型治理。这一优化将直接提升开发者和企业的工作效率,加速AI项目的迭代周期。

赋能Hugging Face用户:简化部署与性能优化

Hugging Face Inference Endpoints提供了一种从模型到部署的简便途径,仅需几次点击即可完成。通过此次深化合作,Hugging Face将把谷歌云独特的计算能力和成本效益带给Hugging Face的用户,首先从Inference Endpoints开始。这意味着Hugging Face用户可以期待更多新型实例的推出,以及潜在的价格下调,这对于控制AI模型部署成本具有积极意义。
inference-endpoints-google-cloud

Hugging Face将确保产品和工程协作的所有成果都能轻松地惠及平台上的数千万AI开发者。从Hugging Face模型页面部署到Vertex Model Garden或GKE,流程将简化到只需几个步骤。此外,在Hugging Face企业组织中安全托管私有模型,也将像处理公共模型一样便捷,这为企业级应用提供了更高的灵活性和安全性。

谷歌自研的AI加速芯片TPU(Tensor Processing Units)目前已发展到第七代,其性能和软件堆栈成熟度持续提升。新媒网跨境获悉,此次合作的目标是确保Hugging Face用户在构建开放模型AI时,能够充分利用当前及下一代TPU的优势。通过在Hugging Face库中提供原生支持,Hugging Face致力于使TPU的使用像GPU一样简单,从而帮助用户发挥其AI工作负载的最大潜力。

此外,此次新的合作还将使Hugging Face能够利用谷歌行业领先的安全技术,提升Hugging Face平台上数百万开放模型的安全性。在谷歌威胁情报和Mandiant的支持下,这项联合工作旨在确保用户日常使用Hugging Face Hub时的模型、数据集和Spaces的安全。这对于保障AI模型的完整性、防止潜在的安全漏洞至关重要,也为广大用户提供了更可信赖的AI开发环境。

共筑AI开放未来

Hugging Face与谷歌云共同描绘了一个未来蓝图:每家企业都能利用开放模型构建自己的AI系统,并将其部署在自身安全的云基础设施中,拥有完全的控制权。双方期待与谷歌云携手实现这一愿景。无论用户是选择Vertex AI Model Garden、Google Kubernetes Engine、Cloud Run,还是Hugging Face Inference Endpoints,双方的深度合作都将加速这一愿景的实现。
mcface-billion-model-served-compressed

新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

本文来源:新媒网 https://nmedialink.com/posts/google-cloud-empowers-hugging-face-10x-ai-usage.html

评论(0)
暂无评论,快来抢沙发~
Hugging Face与谷歌云深化战略合作,共同推动企业级开放人工智能模型的开发与应用。合作聚焦于简化在谷歌云基础设施上使用Hugging Face开放模型的过程,提升用户部署AI模型的效率与性能,构建更开放易用的AI未来。谷歌云客户服务升级,加速开放模型集成,并上线专属CDN网关。
发布于 2025-11-14
查看人数 86
人民币汇率走势
CNY
亚马逊热销榜
共 0 SKU 上次更新 NaN:NaN:NaN
类目: 切换分类
暂无数据
暂无数据
关注我们
NMedia
新媒网跨境发布
本站原创内容版权归作者及NMedia共同所有,未经许可,禁止以任何形式转载。