在 NVIDIA GTC AI 大会上,微软和 NVIDIA 针对开发人员、初创企业和组织机构发布了多项横跨整个技术栈的公告。
微软今天宣布,Azure AI Foundry 现在提供英伟达 NIM 微服务。NIM微服务是由英伟达推理软件驱动的预构建容器。它们旨在优化二十多种流行基础模型的推理,使开发人员能够轻松部署 Gen AI 应用程序。微软还透露了集成英伟达 Llama Nemotron Reason 开放推理模型的计划。
此外,微软还与英伟达合作,优化 Azure AI Foundry 上开源语言模型的推理性能。例如,他们与英伟达合作,使用 TensorRT-LLM 对 Meta Llama 模型进行了性能优化。开发人员在使用这些模型时无需任何额外步骤即可体验到性能的提升。
微软今天宣布全面推出以下服务:
- 支持 NVIDIA NIM 的 Azure 容器应用无服务器 GPU,允许任何人按需运行 AI 工作负载,具有自动缩放、优化的冷启动和按秒计费,在不使用时缩减到零。
- Azure ND GB200 V6 虚拟机 (VM) 系列由 NVIDIA GB200 NVL72 和 NVIDIA Quantum InfiniBand 网络加速。
Microsoft 还确认即将推出的 NVIDIA Blackwell Ultra GPU 和 NVIDIA RTX PRO 6000 Blackwell Server Edition 将在 Azure 上提供。基于 NVIDIA Blackwell Ultra GPU 的 VM 将于 2025 年晚些时候推出。
Azure 基础设施营销副总裁 Omar Khan 就 GTC 2025 上的新公告撰写了以下内容:
今天在英伟达全球技术大会人工智能大会上发布的声明彰显了 Azure 致力于推动人工智能创新的承诺。凭借先进的产品、深入的合作和无缝的集成,我们将继续提供技术,支持并帮助开发人员和客户高效地设计、定制和部署他们的人工智能解决方案。
最后,微软和英伟达在 Azure 市场上推出了预配置的英伟达 Omniverse 和英伟达 Isaac Sim 虚拟桌面工作站以及 Omniverse Kit 应用流。这些虚拟机将使开发人员能够快速开始开发和部署数字孪生和机器人仿真应用与服务。