2023年 ,各行各业ChatGPT火爆全球,生多样生成式AI迅速受到千行百业用户的成式创新关注,以此为代表的平台品加创新也成为企业纷纷讨论的话题 。为了帮助企业加速基于生成式AI的化产创新应用开发与落地,在今年的速企Computex上,NVIDIA面向各行各业发布了全新的业数生成式AI平台,为生成式AI的字化落地提供了多样化的产品和解决方案。
发布会上 ,源码库各行各业黄仁勋全面介绍了加速计算服务、生多样软件和系统 ,成式创新它们正在推动实现新业务模式和提高当前业务模式效率 。平台品加他表示,化产“加速计算和 AI 标志着计算的速企革新”。
全新发布AI超级计算机,业数以一体化解决方案加速生成式AI工作负载
众所周知,生成式AI由于对算力有着极高的需求,大部分企业尤其是传统企业想要获取生成式AI所需要的算力 ,往往并不简单 ,且成本高昂 。
如何让各行各业都能够更加简单、服务器租用快捷的获取生成式AI所需的算力 ,是NVIDIA优先考虑的重要因素 。为此,NVIDIA发布了能够为企业提供超强 AI 性能的 DGX GH200大内存 AI 超级计算机。通过 NVIDIA NVLink,这台超级计算机将多达 256 块 NVIDIA GH200 Grace Hopper 超级芯片整合到一个数据中心大小的 GPU 中 。

据黄仁勋介绍 , NVIDIA DGX GH200 AI超级计算机为生成式AI工作负载提供1 exaflop性能。
据介绍 ,DGX GH200 提供 1 exaflop 性能与 144 TB 共享内存 ,高防服务器比单个NVIDIA DGX A100 320GB系统高出近500倍 。这让开发者可以构建用于生成式AI聊天机器人的大型语言模型 、用于推荐系统的复杂算法,以及用于欺诈检测和数据分析的图形神经网络 。
黄仁勋宣布,GH200 超级芯片现已全面投产 ,它将节能的NVIDIA Grace CPU与高性能的NVIDIA H100 Tensor Core GPU整合到一个超级芯片中 。谷歌云 、Meta和微软是首批有望接入DGX GH200的企业 ,建站模板它们将探索这台超级计算机在生成式AI工作负载方面的能力。
另据了解 ,NVIDIA正在建造自己的大规模AI超级计算机NVIDIA Helios。这台超级计算机将于今年上线,它将使用四个与NVIDIA Quantum-2 InfiniBand网络相连的DGX GH200系统,可提供训练大型AI模型所需要的数据吞吐量。
发布会上 ,黄仁勋还宣布 ,将有超过400种采用NVIDIA 最新版本Hopper,Grace,Ada Lovelace和BlueField架构的系统上市 。模板下载这些系统将被用于解决AI ,数据科学和高性能计算领域的复杂挑战 。
为了满足各种规模数据中心的需求,黄仁勋发布了一个用于创建加速服务器的模块化参考架构NVIDIA MGX 。系统制造商将使用该架构快速、经济地构建100多种不同的服务器配置,满足各种AI、HPC和NVIDIA Omniverse应用的需求。
黄仁勋表示,凭借MGX,制造商能够使用通用架构和模块化组件构建CPU和加速服务器 。云计算MGX支持NVIDIA全部GPU 、CPU 、DPU和网络适配器系列 ,以及各种风冷 、液冷机箱的X86和Arm处理器。
NVIDIA Spectrum-X 网络平台