400-035-6699
当前位置: 首页 » 技术支持 » 博文资讯 »

RDMA技术在数据中心的应用优势解析

随着“新基建”概念的提出,5G人工智能工业互联网成为新型基础设施的关键领域。这带动了高性能计算应用的大规模出现,如机器学习、智能语音交互和自动驾驶等,它们带来了数据量的爆炸式增长,对数据中心的处理能力提出了前所未有的挑战。
数据中心的核心是计算、存储和网络,这三者共同推动着数据中心的发展。计算能力随着CPU、GPU和FPGA的进步而显著提升,存储能力则因闪存盘(SSD)的引入而大幅提高。然而,网络发展相对滞后,成为了制约数据中心性能的瓶颈。
在数据中心内部,70%的流量是东西向流量,即服务器之间的流量。这些流量通常是进行高性能分布式计算时的过程数据流,通过TCP/IP网络进行传输。如果服务器之间的传输速率能够提高,数据中心的性能自然会有所提升。
在服务器间进行TCP/IP传输时,数据需要在多个Buffer间进行拷贝,操作系统还需要添加和卸载TCP、IP报文头。这些操作增加了数据传输时延,并消耗了大量CPU资源,无法满足高性能计算的需求。
为了解决这一问题,RDMA(远程直接内存访问)技术应运而生。RDMA允许服务器直接读写其他服务器的内存数据,而无需经过操作系统和CPU的耗时应处理。这项技术在高性能科学计算中已经广泛应用,并逐渐被引入到数据中心中,以满足高带宽和低时延的需求。
RDMA技术的两大优势是零拷贝和内核旁路/协议卸载。零拷贝意味着数据传输过程中无需在操作系统中进行拷贝,从而显著减少了传输延迟。内核旁路和协议卸载则避免了操作系统内核的参与,减少了处理报头逻辑的繁琐过程,不仅降低了延迟,还大大节省了CPU资源。
目前,有三种主流的RDMA网络技术:InfiniBand、RoCE(RDMA over Converged Ethernet)和iWARP(RDMA over TCP)。InfiniBand专为RDMA设计,采用独特的传输和流控机制,提供极致性能,但成本较高。RoCE和iWARP都是基于以太网的RDMA技术,RoCE的性能更优,而iWARP在大型组网时可能会消耗更多CPU资源。
这些RDMA技术的出现,不仅降低了使用成本,还推动了RDMA技术的普及。在高性能存储和计算数据中心中,这些技术都能大幅降低数据传输时延,并提高CPU资源的可用性
随着5G、人工智能等领域的不断发展,RDMA技术的应用将会更加广泛,成为推动数据中心高性能的关键力量。未来的数据中心将更加高效、智能,为各类新型应用提供强有力的支持。

数据中心现状

RDMA技术在数据中心的应用优势解析

随着“新基建”将5G人工智能、工业互联网列为新型基础领域,机器学习智能语音交互、自动驾驶等一大批基于高性能计算的应用层出不穷,这些应用带来了数据的爆炸式增长,给数据中心的处理能力带来了很大的挑战。计算、存储和网络是推动数据中心发展的三驾马车。计算随着CPUGPUFPGA的发展,算力得到了极大的提升。存储随着闪存盘(SSD)的引入,数据存取时延已大幅降低。但是网络的发展明显滞后,传输时延高,逐渐成为了数据中心高性能的瓶颈。

fb1ab2ba-6fbe-11ed-8abf-dac502259ad0.png

在数据中心内,70%的流量为东西向流量(服务器之间的流量),这些流量一般为数据中心进行高性能分布式并行计算时的过程数据流,通过TCP/IP网络传输。如果服务器之间的TCP/IP 传输速率提升了,数据中心的性能自然也会跟着提升。

fb42d128-6fbe-11ed-8abf-dac502259ad0.png

下面我们就来看看服务器之间数据TCP/IP 传输的过程,了解下“时间都去哪了”,才好“对症下药”。

服务器间的TCP/IP传输

在数据中心,服务器A向服务器B发送数据的过程如下: 1、CPU控制数据由A的APP Buffer拷贝到操作系统Buffer。 2、CPU控制数据在操作系统(OS)Buffer中添加TCP、IP报文头。 3、添加TCP、IP报文头后的数据传送到网卡(NIC),添加以太网报文头。 4、报文由网卡发送,通过以太网络传输到服务器B网卡。 5、服务器B网卡卸载报文的以太网报文头后,将其传输到操作系统Buffer。 6、CPU控制操作系统Buffer中的报文卸载TCP、IP报文头。 7、CPU控制卸载后的数据传输到APP Buffer中。

fb6401ae-6fbe-11ed-8abf-dac502259ad0.png

从数据传输的过程可以看出,数据在服务器的Buffer内多次拷贝,在操作系统中需要添加/卸载TCP、IP报文头,这些操作既增加了数据传输时延,又消耗了大量的CPU资源,无法很好得满足高性能计算的需求。 那么,如何构造高吞吐量、超低时延和低CPU开销的高性能数据中心网络呢?RDMA技术可以做到。

什么是RDMA

RDMA( Remote Direct Memory Access,远程直接地址访问技术 )是一种新的内存访问技术,可以让服务器直接高速读写其他服务器的内存数据,而不需要经过操作系统/CPU耗时的处理。 RDMA不算是一项新技术,已经广泛应用于高性能(HPC)科学计算中。随着数据中心高带宽、低时延的发展需求,RDMA也开始逐渐应用于某些要求数据中心具备高性能的场景中。举个例子,2021年某大型网上商城的双十一交易额再创新高,达到5000多亿,比2020年又增长了近10%。如此巨大的交易额背后是海量的数据处理,该网上商城采用了RDMA技术来支撑高性能网络,保障了双十一的顺畅购物。 下面我们一起来看看RDMA让网络实现低时延的绝招吧。 RDMA将服务器应用数据直接由内存传输到智能网卡(固化RDMA协议),由智能网卡硬件完成RDMA传输报文封装,解放了操作系统和CPU。

fb85d856-6fbe-11ed-8abf-dac502259ad0.png

这使得RDMA具有两大优势: 1、Zero Copy(零拷贝):无需将数据拷贝到操作系统内核态并处理数据包头部的过程,传输延迟会显著减小。 2、Kernel Bypass(内核旁路)和Protocol Offload(协议卸载):不需要操作系统内核参与,数据通路中没有繁琐的处理报头逻辑,不仅会使延迟降低,而且也大大节省了CPU的资源。

fba074b8-6fbe-11ed-8abf-dac502259ad0.png

三大RDMA网络

目前,大致有三类RDMA网络,分别是InfiniBand、RoCE(RDMA over Converged Ethernet,RDMA过融合以太网)和iWARP(RDMA over TCP,互联网广域RDMA协议)。RDMA最早专属于Infiniband网络架构,从硬件级别保证可靠传输,而RoCE 和 iWARP都是基于以太网的RDMA技术。

#

InfiniBand

1、InfiniBand是一种专为RDMA设计的网络。

2、采用Cut-Through转发模式(直通转发模式),减少转发时延。

3、基于Credit的流控机制(基于信用的流控机制),保证无丢包。

4、要求InfiniBand专用的网卡、交换机路由器,建网成本最高。

#

RoCE

1、传输层为InfiniBand协议。

2、RoCE有两个版本:RoCEv1基于以太网链路层实现,只能在L2层传输;RoCEv2基于UDP承载RDMA,可部署于三层网络。

3、需要支持RDMA专用智能网卡,不需要专用交换机和路由器(支持ECN/PFC等技术,降低丢包率),建网成本最低。

#

iWARP

1、传输层为iWARP协议

2、iWARP是以太网TCP/IP协议中TCP层实现,支持L2/L3层传输,大型组网TCP连接会消耗大量CPU,所以应用很少。

3、iWARP只要求网卡支持RDMA,不需要专用交换机和路由器,建网成本介于InfiniBand和RoCE之间。

Infiniband技术先进,但是价格高昂,应用局限在HPC高性能计算领域,随着RoCE和iWARPC的出现,降低了RDMA的使用成本,推动了RDMA技术普及。 在高性能存储、计算数据中心中采用这三类RDMA网络,都可以大幅度降低数据传输时延,并为应用程序提供更高的CPU资源可用性。其中InfiniBand网络为数据中心带来极致的性能,传输时延低至百纳秒,比以太网设备延时要低一个量级。RoCE和iWARP网络为数据中心带来超高性价比,基于以太网承载RDMA,充分利用了RDMA的高性能和低CPU使用率等优势,同时网络建设成本也不高。基于UDP协议的RoCE比基于TCP协议的iWARP性能更好,结合无损以太网的流控技术,解决了丢包敏感的问题,RoCE网络已广泛应用于各行业高性能数据中心中。

结 语

随着5G、人工智能、工业互联网等新型领域的发展,RDMA技术的应用会越来越普及,RDMA将成为助力数据中心高性能的一大功臣。

审核编辑 :李倩

【限时免费】一键获取网络规划系统模板+传输架构设计+连通性评估方案

5G相关文章

服务电话:
400-035-6699
企服商城