正文
返回

AMD推出AMD Instinct MI350系列加速器芯片,推理性能提升35倍

发布:  at  02:30

源信息经过deepseek翻译并总结

摘要:

AMD发布Instinct MI350系列加速器芯片,AI计算速度较前代提升4倍,推理性能提升35倍,包含MI350X和MI355X两款GPU。该系列为生成式AI和高性能计算设立新标杆,计划2025年下半年上市。下一代Helios AI机架方案将基于MI400系列GPU构建。AMD开源AI软件栈ROCm 7增强开发者体验,MI350系列超额完成能效目标。AMD开发者云平台已开放,Meta、Oracle等合作伙伴展示了采用AMD解决方案的实践。AMD强调通过开放协作推动AI发展。


AMD发布Instinct MI350系列加速器芯片,推理性能提升35倍

作者:Dean Takahashi@deantak

2025年6月12日 上午11:30

AMD Instinct MI350系列加速器正式发布。

图片来源:AMD

AMD在其年度Advancing AI活动上公布了端到端集成AI平台愿景,并推出基于行业标准的开放式可扩展机架级AI基础设施。

这家总部位于加州圣克拉拉的芯片制造商宣布推出新款AMD Instinct MI350系列加速器,其AI计算速度较前代提升4倍,推理性能提升35倍。

AMD及其合作伙伴展示了基于AMD Instinct的产品,以及AMD ROCm生态系统的持续发展。同时公布了强大的新型开放式机架级设计方案及路线图,计划在2027年后实现领先的机架级AI性能。

“我们现在可以说正处于推理拐点,这将成为主要驱动力。”AMD首席执行官苏姿丰在主题演讲中表示。她最后暗讽英伟达称:“AI的未来不会由单一公司或封闭系统构建,而是通过行业开放协作共同塑造。”

苏姿丰在Advancing AI活动上演讲。

AMD发布的Instinct MI350系列GPU为生成式AI和高性能计算设立了性能、效率与可扩展性的新标杆。该系列包含MI350X和MI355X两款GPU及平台,AI计算性能实现代际4倍提升,推理性能跃升35倍,将为各行业带来变革性AI解决方案。

OpenAI首席执行官Sam Altman与苏姿丰同台时表示:“我们对AMD的工作感到非常兴奋。”他透露初次听闻MI350规格时难以置信,并感谢AMD采纳了其公司的反馈意见。

AMD表示其最新Instinct GPU可超越英伟达芯片。

AMD展示了端到端开放式标准机架级AI基础设施——已在Oracle Cloud Infrastructure(OCI)等超大规模部署中采用MI350系列加速器、第五代Epyc处理器及Pensando Pollara网卡,预计2025年下半年全面上市。AMD还预览了下一代Helios AI机架方案,该方案将基于MI400系列GPU、Zen 6架构的Epyc威尼斯CPU及Pensando Vulcano网卡构建。

Creative Strategies分析师Ben Bajarin认为:“AMD瞄准的是与英伟达不同的客户类型,特别是新兴云服务商、中小型云平台及本地化企业部署。”他补充道:“全机架部署系统是未来趋势,Helios将与Rubin时间线同步。随着市场转向推理需求,AMD具备竞争优势。许多客户会更看重AMD的总拥有成本(TCO),目前英伟达方案可能超出其需求。”

最新版AMD开源AI软件栈ROCm 7专为满足生成式AI与高性能计算需求设计,显著提升开发者体验。该版本增强了对行业标准框架的支持,扩展硬件兼容性,并提供新开发工具、驱动、API和库以加速AI开发部署。苏姿丰强调:“开放性不应只是流行语。”

Instinct MI350系列超额完成AMD五年能效目标,AI训练与高性能计算节点能效提升达38倍。AMD还宣布2030年新目标:以2024年为基准,实现机架级能效20倍提升。届时训练典型AI模型所需机架将从275个缩减至不足1个,电力消耗减少95%。

AMD开发者云平台已面向全球开发者及开源社区开放。这个专为快速高性能AI开发构建的全托管云环境,提供灵活工具支持AI项目启动与扩展。通过ROCm 7和开发者云平台,AMD正在降低下一代计算技术的使用门槛。与Hugging Face、OpenAI和Grok的战略合作验证了协同开发开放解决方案的价值,现场观众对赠送开发者积分计划报以掌声。

AMD合作伙伴生态展示AI进展

AMD ROCm 7

多家客户分享了采用AMD解决方案训练主流AI模型、规模化推理及加速AI探索的实践:

Meta表示已在其数据中心基础设施中部署多代Instinct和Epyc解决方案,其中MI300X广泛用于Llama 3/4推理。Meta将继续与AMD合作,计划采用MI350/MI400系列GPU。

Oracle Cloud Infrastructure成为首批采用AMD开放式机架AI基础设施的企业,使用MI355X GPU构建平衡可扩展的AI集群,未来将提供由131,072块MI355X加速的zettascale级AI集群。

微软宣布Azure已使用MI300X运行专有及开源模型。

HUMAIN与AMD达成协议,将基于AMD全栈计算平台构建开放、可扩展、高性价比的AI基础设施。Cohere透露其高性能Command模型已部署于MI300X,为企业级大语言模型推理提供高吞吐与数据隐私保障。

红帽在主题演讲中表示,其与AMD的扩展合作使Red Hat OpenShift AI能跨混合云环境提供高效AI处理能力。“用户可充分释放硬件潜力。”红帽高管表示。

Astera Labs强调开放UALink生态如何加速创新,并计划推出完整UALink产品组合支持下一代AI基础设施。Marvell联合AMD公布了首个真正开放的UALink交换机路线图,为AI基础设施提供终极灵活性。



上一篇
谷歌DeepMind凭借新AI模型彻底改变飓风预测
下一篇
TensorWave在其云平台部署AMD Instinct MI355X GPU