美光科技(MU.US)已经开始量产用于英伟达(NVDA.US)最新人工智能芯片的高带宽内存(HBM)。据悉,美光科技的HBM3E产品将供货给英伟达,并将应用于英伟达H200 Tensor Core GPU,该GPU预计将于第二季度开始发货。

资料显示,美光科技HBM3E内存基于1β 工艺,采用TSV封装、2.5D/3D堆叠,可提供1.2 TB/s及更高的性能。美光科技表示,与竞争对手的产品相比,其HBM3E产品有着以下三方面的优势:(1)卓越性能:美光HBM3E拥有超过9.2Gb/s的针脚速率、超过1.2 TB/s的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。(2)出色能效:与竞品相比,美光HBM3E功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。(3)无缝扩展: 美光HBM3E目前可提供24GB容量,可帮助数据中心轻松扩展其AI应用,无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光科技凭借这一HBM3E里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光科技处于有利位置,可以通过我们业界领先的HBM3E和HBM4路线图以及我们用于人工智能应用的完整DRAM和NAND解决方案组合来支持未来人工智能的显著增长。”

HBM是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。美光科技此前曾表示,预计2024财年HBM收入将达到“数亿”美元,并在2025年继续增长。Moor Insights & Strategy分析师Anshel Sag表示:“我认为这对美光科技来说是一个巨大的机会,特别是因为HBM在人工智能应用方面越来越受欢迎。”

HBM市场目前由SK海力士主导。Anshel Sag补充称:“由于SK海力士2024年的库存已经售罄,有另一个供应市场的供应商可以帮助AMD英特尔或英伟达等芯片制造商扩大GPU生产规模。”

责任编辑:于健 SF069

相关文章