英伟达(NVIDIA)斥巨资购买HBM3E内存,以确保其下一代Hopper H200和Blackwell B100人工智能GPU有足够的库存。
英伟达将用下一代Hopper H200和Blackwell B100 GPU助力2024年的人工智能竞赛,为确保HBM3E内存供应下了价值数十亿美元的订单。
韩国媒体《朝鲜日报》(Biz.Chosun)披露,英伟达(NVIDIA)已向 SK hynix 和美光(Micron)等公司订购了大量 HBM3E 内存,为其面向人工智能领域的下一代产品做准备。这种做法限制了其他公司的使用权,要么使它们无法获得这些资源,要么限制它们使用这些资源。
据业内人士 26 日透露,SK 海力士和美光公司已知分别从英伟达公司获得了 7000 亿至 1 万亿韩元的预付款,用于供应尖端内存产品。
NVIDIA 的大笔预付款导致了正在努力扩大 HBM 产能的内存半导体公司的投资行动。尤其是最大的供应商 SK Hynix,据悉该公司正计划将从英伟达获得的预付款集中投资于扩大 TSV 设备,而 TSV 设备阻碍了 HBM 产能的提高。去年第三季度,建立新 TSV 生产线的相关工作顺利开展,就是明证。同样,美光公司在 TSV 设施方面的投资也有望得到推动。
与此同时,据了解,三星电子最近还与英伟达完成了 HBM3 和 HBM3E 产品适用性测试,并签署了供应合同。
人工智能产业发展迅速,英特尔和 AMD 等公司都在加紧研发,以追赶英伟达,因此绿队必须采取 "先发制人" 的措施,以保持其主导地位。
说到 HBM3E,目前,英伟达计划在其下一代 Blackwell AI GPU 中首次采用 HBM3e,据传将于 2024 年第二季度推出,在性能方面,通过采用芯片组设计,HBM3e 将带来决定性的每瓦性能提升。此外,英伟达的 Hopper H200 GPU 还将配备世界上最快的 HBM3E 内存,因此该解决方案对于英伟达在人工智能和高性能计算市场取得成功意义重大。
英伟达(NVIDIA)对数据中心领域的创收抱有很大期望,因此他们显然要比别人领先一步。英伟达计划到 2027 年,通过人工智能驱动的销售收入高达 3000 亿美元,因此确保向客户稳定供应人工智能 GPU 是他们的首要目标。另一个有趣的事实是,收购 HBM3E 将为 HBM 行业带来巨大的推动力,尤其是在扩建设施方面,因为订单积压一直是 SK hynix 和 Micron 等公司面临的一个大问题,因此预先测量的供应意味着 HBM 的交付将变得更加容易。
英伟达™(NVIDIA®)公司目前处于霸主地位,而且看起来还没有放弃宝座的意思。绿色团队在其 CUDA 平台上取得的进步以及其硬件部门已经彻底改变了市场现状,未来会发生什么,让我们拭目以待。
来源:Chosun Biz