首页  >  资讯  >  文章
2023-05-30 10:03

性能是上一代10倍!!英伟达发布DGX GH200超级计算机

AI奇点网5月30日报道丨当地时间5月29日上午,英伟达今天在 Computex2023 台北电脑展大会上发布了多项重磅消息,其中最引人注目的是其名为Grace Hopper(缩写 GH 系列)的超级算力芯片已经全面投产。英伟达创始人兼 CEO 黄仁勋在 NVIDIA 的演讲中宣布,生成式 AI 引擎NVIDIA DGX GH200 现已投入量产。

英伟达官网显示,NVIDIA DGX GH200 是将 256 个 NVIDIA Grace Hopper 超级芯片完全连接到单个 GPU 中的新型AI超级计算机,支持万亿参数AI大模型训练。能够处理大规模推荐系统、生成式人工智能和图形分析,并为巨型人工智能模型提供线性可扩展性。“不需要把数据储存在很多个模块中,DGX GH200 更易训练大语言模型、深度学习推荐系统。”黄仁勋称。

据悉,Grace Hopper 超级芯片是英伟达开发的基于 ARM 架构开发的 CPU+GPU 集成方案,它将 72 核的 Grace CPU、Hopper GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一个封装体系中,合计多达 2000 亿个晶体管。这种组合提供了 CPU 和 GPU 之间惊人的数据带宽,高达 1TB/s的吞吐量。英伟达称这种结构提供了比前一代系统高出 10 倍的 GPU 到 GPU 和 7 倍的 CPU 到 GPU 的带宽。它还设计了提供比竞争对手高出 5 倍的互连功耗效率和高达 128TB/s 的对分带宽。

NVIDIA 提供了 DGX GH200 的预计基准测试,其中 NVLink 交换机系统与与 InfiniBand 捆绑在一起的 DGX H100 集群正面交锋。NVIDIA 在上述工作负载计算中使用了不同数量的 GPU,范围从 32 到 256,但每个系统在每次测试中都使用了相同数量的 GPU。

DGX GH200 附带的优化的操作系统和集群管理器,使得管理大规模语言模型训练的复杂性大大降低。按照老黄的说法:花费 1000 万美金成本,你可以建置一个有 960 颗 CPU 核心的数据中心,但这个数据中心要 11GWh 的功率,处理 1X LMM 大语言模型的数据量。

DGX GH200 还具有非常灵活的扩展性和配置选项。用户可以根据自己的需求选择 GPU、内存、存储、网络等组件,并随时添加更多的资源,实现弹性扩展。

集成 256 个 GH200 芯片的 DGX GH200 超级计算机,内存扩大了 500 倍,超级算力提高了 7 倍,这个是相当了不起的成果,不出所料的话,英伟达的营收会随着超级计算机的诞生,获得更多的合同和利润,股价继突破万亿后,也会继续水涨船高。

1
查看相关话题: #英伟达 #NVIDIA #GH200 #超级计算机

相关文章