Mellanox infinoband RDMA SDP

简介: IPoIB Internet Protocol over InfiniBand 就是指利用物理IB网络(IB卡,线缆,交换机,更甚者IB3层交换)通过ip协议进行连接,并进行数据传输! SDP Sockets Direct Protocol由InfiniBand行业协会trade Association软件工作组指定,主要是针对InfiniBand架构.

IPoIB

Internet Protocol over InfiniBand
就是指利用物理IB网络(IB卡,线缆,交换机,更甚者IB3层交换)通过ip协议进行连接,并进行数据传输!

SDP

Sockets Direct Protocol由InfiniBand行业协会trade Association软件工作组指定,主要是针对InfiniBand架构.
SDP利用IB卡的RDMA特性进行数据的高速传输,低延迟数据交换,推广到iWARP Internet Wide Area RDMA Protocol.

SDP使用RDMA网络特性能够高效的进行零拷贝的数据传输,SDP协议设计的目的是为了使得应用程序能够透明的使用IB卡的RDMA(Remote Direct Memory Access)通信机制来加速传统的TCP/IP网络通信.

在InfiniBand上的SDP协议实现即SDPoIB
solsris Unix均提供SDP支持,在Microsoft windows中则可以使用Winsock Direct 子系统来实现SDP

SDPoIB主要是针对流的套接字通信,使用SDPoIB进行通信的应用,可以绕过操作系统本身的TCP协议栈,之间利用IB卡硬件的RDMA能力进行通信,基于数据包的通信像UDP等则由IPoIB来进行支持,SDPoIB可以依赖IPoIB来进行地址解析等工作.

Roce(RDMA over Converged EtherNet)

http://en.wikipedia.org/wiki/RDMA_over_Converged_Ethernet

 

R-NIC

Rdma-aware Network Interface Controller

IE-TF

互联网工程任务组(Internet Engineering Task Force)

目录
相关文章
|
机器学习/深度学习 网络协议 异构计算
浅析GPU通信技术(下)-GPUDirect RDMA
目录 浅析GPU通信技术(上)-GPUDirect P2P 浅析GPU通信技术(中)-NVLink 浅析GPU通信技术(下)-GPUDirect RDMA 1. 背景         前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
24396 0
|
异构计算
详解串行通信协议及其FPGA实现(二)
详解串行通信协议及其FPGA实现(二)
90 0
详解串行通信协议及其FPGA实现(二)
|
芯片 异构计算
详解串行通信协议及其FPGA实现(一)
详解串行通信协议及其FPGA实现(一)
208 0
详解串行通信协议及其FPGA实现(一)
|
网络协议 容灾 Linux
系列解读 SMC-R:融合 TCP 与 RDMA 的 SMC-R 通信(二)
通过上一篇文章 《系列解读 SMC-R:透明无感提升云上 TCP 应用网络性能(一)》我们了解到,RDMA 相对于 TCP 具有旁路软件协议栈、卸载网络工作到硬件的特点,能有效增加网络带宽、降低网络时延与 CPU 负载。而内核网络协议 SMC-R 在利用 RDMA 技术的同时、又进一步完美兼容了 socket 接口,能够透明无感的为 TCP 应用带来网络性能提升。因此,龙蜥社区高性能网络 SIG 认为 SMC-R 将成为下一代数据中心内核协议的重要组成,对其进行了大量优化,并积极将这些优化回馈到上游 Linux 社区。
432 0
系列解读 SMC-R:融合 TCP 与 RDMA 的 SMC-R 通信(二)
|
网络协议 容灾 Linux
系列解读 SMC-R (二):融合 TCP 与 RDMA 的 SMC-R 通信 | 龙蜥技术
本篇以 first contact (通信两端建立首个连接) 场景为例,介绍 SMC-R 通信流程。
系列解读 SMC-R (二):融合 TCP 与 RDMA 的 SMC-R 通信 | 龙蜥技术
|
RDMA
rdma
rdma
1001 0
|
存储 缓存 网络协议