过去一年,英伟达(NVIDIA)赚得盆满钵满,这要归功于微软、OpenAI 等公司大量购买该公司的高端 GPU,为其生成式人工智能产品提供动力。今天,英伟达宣布推出新一代人工智能 GPU,有望为微软和其他公司的人工智能服务提供更快的速度和更高的性能。
在一份新闻稿中,英伟达发布了基于公司 Hopper 芯片架构和 H200 Tensor Core GPU 的 HGX H200 GPU。它指出:
英伟达 H200 是首款提供 HBM3e 的 GPU --更快、更大的内存可为生成式人工智能和大型语言模型的加速提供动力,同时推动高性能计算工作负载的科学计算。凭借 HBM3e,英伟达 H200 以每秒 4.8 兆兆字节的速度提供 141 GB 内存,与其前代产品英伟达 A100 相比,容量几乎翻了一番,带宽也增加了 2.4 倍。
英伟达声称,与 H100 相比,新芯片在运行 Llama 2 大型语言模型时的推理速度将提高近一倍。
该公司表示,微软 Azure、亚马逊网络服务(Amazon Web Services)、谷歌云(Google Cloud)和甲骨文云基础设施(Oracle Cloud Infrastructure)等最大的云服务公司已经签约购买新的 HGX H200 GPU。它可用于四路和八路配置,与旧版 HGX H100 硬件和软件系统兼容。英伟达公司补充说:
八路 HGX H200 可提供超过 32 petaflops 的 FP8 深度学习计算能力和 1.1TB 的聚合高带宽内存,为生成式 AI 和 HPC 应用提供最高性能。
此外,包括华擎机架、华硕、戴尔科技、技嘉、惠普企业、联想等在内的众多服务器硬件合作伙伴将能够使用新的 H200 芯片升级其旧版 H100 系统。
HGX H200 GPU 将于 2024 年第二季度在这些服务器 PC 公司和云计算企业上市。该公司之前发布的 GH200 Grace Hopper 生成式 AI 平台也将于 2024 年第二季度上市。