英伟达是目前为微软等公司的大型人工智能生成服务器提供 CPU 的领先厂商。今天,英伟达发布了下一代 GH200 Grace Hopper 生成式人工智能平台,该平台采用了全新的(高带宽内存 3 E)处理器,速度应该比当前基于 Grace Hopper 的服务器快得多。
英伟达公司是在 SIGGRAPH 图形开发者大会上宣布这一消息的。该公司表示,与当前的 Grace Hopper 平台相比,新型 Grace Hopper 芯片与 HBM3e 处理器的组合将使内存容量和带宽分别提高三倍和三倍以上。
英伟达公司补充说:
新平台使用Grace Hopper Superchip,该芯片可通过英伟达 NVLink与其他超级芯片连接,使它们能够协同工作,部署用于生成式人工智能的巨型模型。这种高速、连贯的技术使 GPU 能够完全访问 CPU 内存,在双路配置时可提供 1.2TB 的高速内存。
新的 HBM3e 内存应该比当前的 HBM3 内存快 50%。英伟达表示,它将提供高达 10TB/sec 的综合带宽。
英伟达公司首席执行官黄仁勋(Jensen Huang)表示:
全新的 GH200 Grace Hopper 超级芯片平台采用了卓越的内存技术和带宽来提高吞吐量,能够连接 GPU 以不打折扣地提高性能,其服务器设计可在整个数据中心轻松部署。
早在 5 月份的 Computex 上,英伟达(NVIDIA)就曾表示,当前一代 GH200 Grace Hopper 芯片将于 2023 年晚些时候全面投产。新发布的下一代 Grace Hopper 芯片和服务器仍遥遥无期,英伟达预计系统构建商将于 2024 年第二季度开始交付采用这种新平台的服务器。
目前还没有关于价格的消息,但英伟达确实表示,新的 Grace Hopper GPU 系统 "将有多种配置可供选择"。