首页>>新闻资讯>>云计算

生成式AI添利器!英伟达推出超级芯片GH200 Grace,内存增3.5倍、带宽增三倍

2024-08-23 09:12:38 17

导语:生成式 AI 又添强大助力,英伟达升级产品,推出容量和速度双双大幅提升的超级芯片 GH200 Grace,力求巩固 AI 芯片领域的霸主地位。

        生成式 AI 又添强大助力,英伟达升级产品,推出容量和速度双双大幅提升的超级芯片 GH200 Grace,力求巩固 AI 芯片领域的霸主地位。

发布产品当天,英伟达股价周二低开低走,临近午盘时刷新日低,日内跌幅达 3%。

美东时间 8 月 8 日周二,英伟达发布新一代 GH200 Grace Hopper 平台,该平台依托于搭载全球首款 HBM3e 处理器的新型 Grace Hopper 超级芯片(下称 GH200),专为加速计算和生成式 AI 时代而打造。

新平台旨在处理世界上最复杂的生成式 AI 工作负载,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。英伟达称,GH200 将于 2024 年第二季度投产。

新平台采用的 GH200 可以通过英伟达的 NVLink 技术连接其他 GH200 芯片,共同部署在生成式 AI 的大模型上。这种技术让 GPU 能充分访问 CPU 内存,在双芯片配置时提供合计 1.2TB 的快速内存。

英伟达的超大规模和高性能计算主管 Ian Buck 介绍,GH200 比英伟达基于 H100 的数据中心系统配备了更多内存和带宽。它采用的英伟达的 Hopper GPU,并结合基于 Arm 架构的英伟达 Grace CPU。

相比前代平台,新 GH200 Grace Hopper 平台的双芯片配置将内存容量提高 3.5 倍,带宽增加三倍,一个服务器就有 144 个 Arm Neoverse 高性能内核、8 petaflops 的 AI 性能和 282GB 的最新 HBM3e 内存技术。

HBM3e 是一种高带宽内存,带宽达每秒 5TB。该内存比当前的 HBM3 快 50%,可提供总共每秒 10TB 的组合带宽,使新平台能运行比前代大 3.5 倍的模型,同时通过快三倍的内存带宽提高性能。

本周二,在计算机协会(ACM)计算机图形和交互技术特别兴趣组织(SIGGRAPH)的年度大会上发表主题演讲时,英伟达 CEO 黄仁勋将 GH200 称为 " 世界上最快的内存 "。

黄仁勋说,为了满足生成式 AI 不断增长的需求,数据中心需要有针对特殊需求的加速计算平台。新的 GH200 Grace Hopper 超级芯片平台提供了卓越的内存技术和带宽,以此提高吞吐量,提升无损耗连接 GPU 聚合性能的能力,并且拥有可以在整个数据中心轻松部署的服务器设计。

黄仁勋表示,在 AI 时代,英伟达的技术可以替代传统数据中心,投资 800 万美元的新技术可以取代用旧设备建造的 1亿美元设施,而且用电量可以减少 20 倍。" 这就是数据中心在向加速计算转变的原因。你买的越多,越省钱。"

快速创建生成式 AI 的工具包 AI Workbench

除了 GH200,英伟达周二还发布了新的统一工具包 AI Workbench,以及对英伟达 Omniverse 软件服务的重大升级。

AI Workbench 为开发者提供了统一且便于使用的工具包,可在个人电脑(PC)或工作站上快速创建、测试和微调生成式 AI 模型,然后将其扩展到几乎任何数据中心、公共云或者英伟达的 DGX 云。

英伟达称,AI Workbench 让企业的 AI 项目入门不再复杂。通过在本地系统运行的简化界面进行访问,它让开发者能使用自定义数据微调 Hugging Face、GitHub 和 NGC 等常用存储库中的模型,然后可以在多个平台上轻松共享模型。

借助 AI Workbench,开发者只需点击几下即可自定义和运行生成式 AI,而且他们能够将所有必要的企业级模型、框架、软件开发套件和库整合到一个统一的开发者工作区中。

用黄仁勋的话来说就是:"人人都可以做到。"

(文章为作者独立观点,不代表艾瑞网立场)

查看原文

相关标签:

发表评论:

评论记录:

未查询到任何数据!