原标题:掌握数据中心算力密码的三个关键词
英伟达的成功来自于AI,或者更为准确地说是来自于AI所必须的算力支撑。IDC预测生成式AI在服务、软件和基础设施方面的支出,将从2023年的160亿美元跃升至2027年的1430亿美元。显然,生成式AI所需的算力市场远没有达到顶峰,NVIDIA也在力图在这个市场有更大的作为。
在COMPUTEX 2023上,NVIDIA创始人兼CEO黄仁勋就曾说了一句意味深长的话:“如果数据中心是一台计算机,那么网络是它的神经系统,并且网络也会定义数据中心。”从中不难看出对于AI网络和DPU的重视。
而要让DPU发挥出更大潜力,DOCA软件框架就必须被当做不能忽视的一环。NVIDIA近日发布了由 NVIDIA 撰写的《数据处理器: DPU编程入门》一书,这是全球首部 NVIDIA DPU 处理器编程入门书籍。这一发布的背后,可以说是DOCA的一小步,却是DPU的一大步,更是NVIDIA拓展算力市场的一大步。于是,关于这个发布的解读,就有了DPU、社区和秘籍三个关键词。
关键词一:DPU
NVIDIA全球副总裁,中国企业营销负责人刘念宁将NVIDIA在数据中心算力的布局,概括为“三芯+二意”。其中,三芯就是CPU、GPU和DPU,二意则是指用于GPU的CUDA和用于DPU的DOCA。
多年以来,中央处理器(CPU)和图形处理单元(GPU)一直“统治”着数据中心。当涉及算术运算和逻辑运算等常规计算时,通常是CPU更快,但是当涉及到大型矩阵乘法和并行算法时,GPU 排在第一位。但随着数据中心建设、网络带宽和数据量急剧增长,由于CPU性能增长速度放缓,为了寻求效率更高的基础设施计算芯片,DPU由此产生。
DPU解决了大流量网络数据包处理占用CPU问题,CPU、GPU和DPU形成了新的“铁三角”,彻底颠覆了数据中心的加速计算模式。
谈起NVIDIA的DPU,NVIDIA 网络市场总监孟庆介绍说:“NVIDIA早在2020年开始,就在不断强调DPU的作用。黄仁勋强调除了GPU和CPU之外,DPU会成为未来数据中心的关键和支柱,到了今天,NVIDIA的第三代DPU也已经投入了使用,不久之后还会有更强的第四代,我们的DPU产品路线图会持续下去。”
而说起DPU所起的作用,NVIDIA中国区工程和解决方案高级总监赖俊杰表示:“DPU的应用场景很多,传统的云计算虚拟化需求只是一个起点,它可以保障CPU的能力被释放出来,而不用再去做网络虚拟的相关计算,从而节省了资源。DPU作为组件,确实可以起到保障的功用,但我们应当从整个数据中心的视角去看问题,研究其中有何短板,这样就会发现DPU有更高层次的价值,它让CPU专心做更为普适的计算,而将深度学习这类任务交给GPU来做。DPU还可以保障在安全的前提之下,在网络设备的协助下,更为有效地在数据中心进行数据移动。这个时候,我们会发现,DPU已成了数据中心里越来越重要的一环。”
从中不难看出,如果我们将数据中心做为一个统一的计算单元来看,融合了GPU、CPU和DPU之后,DPU在其中所起的作用也得到了升华,原因在于3U会带来数据中心整体计算效率的提升。
关键词二:社区
DOCA软件开发套件为开发者提供了一个完整开放的软件开发框架。开发者在DPU上开发软件定义和硬件加速的网络、存储、安全和管理等应用,DOCA可以带给开发者的一致体验,并将编程和使用DPU所需要的一切都集中在一个软件开发框架下面,还能保持与几代BlueField DPU软件相互的兼容性,实现卸载、加速、隔离和基础设施等操作,支持超大规模企业超级计算和超融合等基础设施的各种应用场景。
正是由于DOCA的作用如此重要,英伟达很早以前就开始了围绕着DOCA的生态大布局。而对于开发者而言,推广的最好方式无疑是社区了。
早在2021年4月,英伟达就开始着手筹备DOCA中国开发者社区。到了2021年6月,DOCA中国开发者社区正式向中国开发者开放。中国DOCA开发者一度占到全球注册者的一半。时至今日,超过42%的DOCA开发者在中国。
与支持GPU的CUDA不同,DOCA的推广存在一些个性化的难点。如果一名开发者拥有一台PC,那么他们就可以应用GPU,从而拥有开发环境。而DPU只应用于数据中心的服务器,所以DOCA开发者是一个特定的人群。但同时,由于DPU的广泛应用前景,在这一特定人群之外,还有其他潜在的用户群。而DOCA社区就不仅起到了特定人群的积聚作用,也起到了潜在人群的培育作用。
DOCA中国开发者社区成立以来,已经举办了两界DPU中国黑客松竞赛。孟庆表示,面对着开发者的奇思妙想,特别是一些在校学生的项目,自己往往感叹开发者的想象力是无边界的。用户的个性化需求,通过社区也将DPU的应用带到了一个新的高度。
关键词三:秘籍
社区的优势在于充满了创造力,但社区项目与成熟企业级应用往往隔着一道墙。如果把社区项目比做是存在于大自然中的天然水,那么企业级应用需要的则是提纯后的矿泉水。虽然DOCA中国开发者社区成立并不长,但问题还是不可避免地出现了。
孟庆介绍说:“很多开发者在深入应用DOCA时会产生分歧,深入下去才发现原因是开发者搜集到的资料不完整,甚至不同开发者应用了不同版本的DOCA。”在这样的条件之下,社区必须要做正本清源的工作,《数据处理器: DPU 编程入门》也正是在这样的条件下诞生的。
《数据处理器: DPU 编程入门》可谓是生于社区,服务于社区。图书的出版往往有一个很长的周期,而《数据处理器: DPU 编程入门》却是由工作在一线的十几名系统架构师利用业余时间编写完成的,因而可以鲜活地反映产业内DPU的应用现状。
孟庆解释了这本书的定位:”我们把《数据处理器: DPU 编程入门》定位在了初学者上,因而替初学者考虑了许多问题。DOCA学习的最大问题,是缺乏实操的环境,因此在书中,我们还给出了一种利用X86环境虚拟化出实操环境的方法。”
即使是面向初学者,对于学习者依然会有一定的门槛。NVIDIA 网络技术专家崔岩解释了这个门槛:“学习者需要具备三方面的能力。首先是具备网络方面的基䂐中识,其次是因为要在Linux环境中开发和配置使用,所以需要懂Linux命令。最后就是我们以C语言开发为主,这样会让开发更加高效,向其他环境匹配和移植也会比较顺畅。大学里学习计算机和通信专业的学者都具备这几方面的知识,所以这本书的门槛并不高。当然想深入一步的话,就需要用到DPU服务器环境,那样更容易找到想要实现创意的软件或服务。但没环境也没关系,在虚拟环境中一样可以学习。”
而谈及读者通过学习可以获得的收益,崔岩介绍说:“我们并没有在书中一开始就具象到NVIDIA的产品和技术,而是要让读者树立一个对于DPU应用的宏观、初步的认识,然后学习DPU相关功能的介绍,学会如何搭建开发环境。在此之外,我们也汇总了合作伙伴的典型案例,并重点介绍了其中容易让开发者上手的应用。我们不想让读者只看到脱离体系独立存在的处理器,而是要跟网络平台和生态环境相结合,了解一系列完整的解决方案,其中大家甚至可以看到将DPU与GPU融合在一起的产品。我们希望读者能打开自己对于DPU的认识,并且能在上边做出自己的创新应用。”
《数据处理器: DPU 编程入门》的出版方机械工业出版社透露,计算机销畅书的门槛是发行超过一万册,而出版方将《数据处理器: DPU 编程入门》的发行目标定在了超过一万册。这从一个侧面反映出了市场对于DPU和DOCA的信心。
刘念宁在最后强调:“多年前我们说CUDA将会无处不在时,当时业界对此充满了疑惑。今天我们又在说,DOCA将无处不在。你今天的选择又会是怎样的呢?”返回搜狐,查看更多
责任编辑:
相关标签: