科普:火遍全网的 DPU 到底是什么

2022-08-18 16:20:10

  不管你是否身处ICT行业,这两年有一个词你肯定听说过,那就是DPU。作为一个全新兴起的科技概念,DPU正在以惊人的速度崛起,成为整个行业甚至整个社会的关注重点。尤其是投资领域,对DPU简直是竞相追逐,将其视为未来颠覆行业的潜力技术。究竟什么是DPU?它和我们熟悉的CPU、GPU有什么区别?今天,小枣君就带大家彻底搞明白DPU的来龙去脉。█什么是DPUDPU的英文全称叫做DataProcessingUnit,也就是数据处理器。英伟达首席执行官黄仁勋曾在演讲中表示:“DPU将成为未来计算的三大支柱之一,未来的数据中心标配是‘CPU+DPU+GPU’。CPU用于通用计算,GPU用于加速计算,DPU则进行数据处理。”听着有点晕,DPU到底进行什么样的数据处理?有了CPU和GPU,为啥还要DPU?众所周知,自从计算机诞生以来,就是采用的著名的冯诺依曼架构。冯诺依曼架构这是一个以计算和存储为核心的架构,CPU作为处理器单元,负责完成各种算术和逻辑计算。而内存和硬盘,负责存储数据,与CPU交互。除了CPU、内存和硬盘之外,就是键盘、显示器这样的输入和输出设备。随着时间的推移,后来,我们有了鼠标,又有了显卡、网卡。最终,形成了现在大家看到的电脑的基本构造。有了显卡,就有了GPU,图形处理器。大家都玩过游戏,很明白,正是游戏、3D设计等多媒体图形软件的高速发展,要处理的工作量越来越大,也越来越复杂,CPU实在忙不过来,所以就有了专门进行图像和图形相关运算工作的GPU,分担CPU的压力。DPU的出现,道理也是一样的。同样是因为CPU难以负担一些复杂的计算,所以需要进行任务分工。█DPU到底算些什么好了,终于到了关键点了。说了半天,DPU到底分担了CPU的哪些工作呢?说实话,想要从技术上解释DPU分担的工作内容,稍微有点困难,不容易看懂。但是,我们可以从工作场景上进行解释。大致来看,DPU分担的工作可以归纳为四个关键词,分别是虚拟化、网络、存储以及安全。特别需要提醒大家,DPU是一个紧密围绕数据中心的概念。也就是说,它主要用于数据中心这种大规模算力场景,而非我们每个人的台式机、笔记本电脑或手机。DPU服务于云计算,主要作用是提升数据中心等算力基础设施的效率,减少能耗浪费,进而降低成本。前面提到的虚拟化、网络、存储以及安全,是数据中心非常重要的工作,也是大量消耗算力资源的工作。以网络为例。在数据中心里,时时刻刻都有大量的数据在进行传输。主机在收发数据时,需要进行海量的?络协议处理。根据传统的计算架构,这些协议处理都是由CPU完成的。有人统计过,想要线速处理10G的?络,需要的?约4个XeonCPU的核。也就是说,仅仅是进行?络数据包的处理,就要占用?个8核?端CPU?半的算?。现在数据中心网络不断升级,从10G到40G、100G,甚至400G?速?络,这些性能开销如何承受?这些开销如此之大,以至于被称为“DatacenterTax”。业务程序尚未运行,仅是接入网络数据,就消耗了这么多算力资源,这是无法忍受的。所以,就有公司提出了SmartNIC的概念,将网络协议处理的工作从CPU“卸载”到网卡上,以此分担CPU的负载。2015年,云计算厂商AWS率先开始探索这种SmartNIC模式。他们收购了芯片厂商AnnapurnaLabs,并于2017年正式推出Nitro系统。同年,阿里云也官宣了有类似功能的神龙架构。2019年3月,英伟达花费69亿美元收购了以色列芯片公司Mellanox。英伟达将Mellanox的ConnectX系列高速网卡技术与自己的已有技术相结合,于2020年正式推出了两款DPU产品:BlueField-2DPU和BlueField-2XDPU。从此,DPU这个概念正式进入了公众视野。2020年,也被称为DPU元年。正因为DPU和SmartNIC有这样的渊源,所以,人们普遍将DPU视为SmartNIC的扩展升级版。DPU在SmartNIC的基础上,将存储、安全和虚拟化等工作负载也从CPU卸载到自己身上。上世纪90年代末,以VMWare为代表的虚拟化技术刚刚出现的时候,完全是由软件进行模拟线的,缺乏硬件的支持,所以,性能很差,几乎难以使用。后来,2005年,随着技术的演进,CPU和内存的硬件虚拟化问题逐渐解决,才让虚拟化系统的性能有了大幅的提升,也激活了这项技术的发展前景和价值。众所周知,我们现在的整个云计算架构,都是基于虚拟化技术发展起来的。虚拟化技术发展的过程,是硬件能力不断取代软件能力的过程。前面我们提到AWS发布Nitro系统。这个系统除了SmartNIC之外,也完成了I/O的硬件虚拟化。它还将虚拟化管理程序Hypervisior从CPU卸载到专用硬件上。这样做带来的结果就是,虚拟化技术的性能损耗趋近于零,CPU的负担进一步下降。存储也是如此。现在数据中心对存储读取和写入的速率要求很高。SSD价格逐渐下降后,将SSD通过本地PCIe或高速网络与系统相连接,成为了一种主流的技术路线。针对分布式系统,在以往InfiniBand、FC、Ethernet的基础上,RDMA技术开始流行。在RDMA模式中,应用程序的数据,不再经过CPU和复杂的操作系统,直接和网卡通信。这就意味着,DPU可以承担存储相关的高速接口标准协议处理,进一步为CPU分担压力。最后再看看安全。在目前越来越严峻的安全形势下,为了确保网络和系统的安全可靠,引入了大量的加密算法。以往,这些算法都是由CPU负责完成加密和解密的。但事实上,网络接口才是最理想的隐私边界。在网络接口上进行加密和解密,才是最合理的。所以,像国密标准的非对称加密算法SM2、哈希算法SM3和对称分组密码算法SM4等,其实都可以交给DPU进行计算。未来,区块链技术成熟应用后,相关算法也是可以从CPU卸载到DPU进行的。综上所述,大家应该也看明白了,DPU的作用本质,就是卸载、加速和隔离——把CPU的部分工作卸载到自己身上;利用自己的算力特长,对这些工作进行加速运算;整个过程,实现了计算的隔离。█DPU的未来前景DPU是一个新型可编程多核处理器,是一块SoC芯片。它符合行业标准,具有很高的算力,还具备高性能的网络接口,能高速解析、处理数据,并高效地将数据传输到CPU和GPU。DPU和CPU的最大不同,是CPU擅长通用性计算任务,而DPU更擅长基础层应用任务,例如网络协议处理,交换路由计算,加密解密,数据压缩等“脏活累活”。所以说,DPU是CPU的一个好帮手,将与CPU、GPU形成“铁三角”,彻底颠覆数据中心的运算模式。这就是为什么DPU如今备受关注的原因。正如开头所说,DPU目前的火爆程度,已经不能用词语来形容。资本对于DPU的热情,更是令人印象深刻。不管是巨头还是初创公司,都纷纷入局DPU赛道。DPU的市场仍在升温,发展前景可期。还是以英伟达为例。继BlueField-2DPU和BlueField-2X之后,2021年4月,NVIDIA又发布了新一代数据处理器——BlueField-3DPU。BlueField-3DPU这是首款为AI和加速计算而设计的DPU,针对多租户、云原生环境进行了优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。据称,一个BlueField-3DPU所提供的数据中心服务,可相当于多达300个x86核才能实现的服务。这就释放了大量的CPU资源,用于运行关键业务应用。要想发挥DPU在现代数据中心的核心价值,离不开软件的加持。换句话说,没有软件的芯片,只是昂贵的沙子。为了构建更为强大的DPU生态,英伟达专门推出了给BlueFieldDPU量身打造的软件开发平台——NVIDIADOCA。DOCA的全称叫DataCenterInfrastructureOnAChipArchitecture,即“线上数据中心基础设施体系结构”。借助于DOCA,开发人员能够利用行业标准的API,在NVIDIABlueFieldDPU上快速创建网络,存储,安全和管理服务,以及AI/HPC的一系列应用程序和服务。在2022年5月,NVIDIA发布了DOCA1.3。该版本不仅新增了121个API开发接口,还添加了优化数据流插入的DOCAFlow库、通信通道库、正则表达式库和基于OVN的数据路径加密等功能,更添加了HBN等服务,深受开发者的欢迎。DOCA1.3的架构近日,NVIDIA又发布了DOCA1.4,在不重启主机的情况下支持DPU固件升级,在BlueField-2DPU25G&100Gw/BMC产品上支持32GBDDR内存,新增对AArch64服务器主机支持,以及基于最长前缀匹配管道的路由功能。借助DOCA1.4版本,开发者可以更灵活、更简单、更快捷地在BlueFieldDPU上进行开发环境的搭载,从而迅速推出新产品。█结语根据预测,到2025年,DPU全球市场容量预计将达到120亿美金。随着摩尔定律逐渐进入瓶颈,为了更高效地利用算力资源,我们需要大力发展DPU,让CPU、GPU、DPU进行合理分工,各自更加专注于自己擅长的工作。这样,我们才能将数据中心的能效发挥到最大,为整个社会的数字化转型提供强劲且绿色的动力。

下一篇:WTI原油价格分析:确认看涨下降楔形,多头逼近88美元
上一篇:腾讯控股开盘涨超4%,第二季度净利润同比下滑56%
返回顶部小火箭