Mellanox GPUDirect RDMA用户手册

GPUDirect RDMA是IB CORE与对等内存客户端(例如NVIDIA Tesla类GPU)之间的API。 它提供对Mellanox HCA读/写对等内存数据缓冲区的访问权限,因此,它允许基于RDMA的应用程序通过RDMA互连使用对等设备的计算能力,而无需将数据复制到主机内存。

应用介绍

GPUDirect RDMA是IB CORE与对等内存客户端(例如NVIDIA Tesla类GPU)之间的API。 它提供对Mellanox HCA读/写对等内存数据缓冲区的访问权限,因此,它允许基于RDMA的应用程序通过RDMA互连使用对等设备的计算能力,而无需将数据复制到主机内存。 任何MellanoxConnectX®-4(或更高版本)的InfiniBand适配卡均支持此功能。 GPUDirect RDMA还将通过RoCE(融合以太网RDMA)技术与MellanoxConnectX®-4和更高版本的适配器卡无缝地工作。

文件列表(部分)

名称 大小 修改日期
Mellanox GPUDirect RDMA User Manual__12_13_2020.pdf96.04 KB2020-12-13

立即下载

相关下载

[RDMA 编译报错] gcc -o rdma-client rdma-common.o rdma-client.o -lrdmacm /usr/bin/ld: rdma-common.o: undefined reference to symbol
[在Linux示例程序上编写RDMA应用程序] 在Linux示例程序上编写RDMA应用程序,Linux示例程序上编写RDMA应用程序。 使用请确保您拥有rdma和libibverbs库。 ## compiler客户端: $ cc -o client client.c -lrdmacm -libverbs 服务器 : $ cc -o服务器server.c -lrdmacm ##运行服务器:
[Mellanox RDMA学习例子] 编译库的需求:libibverbs 编译参数:GCC -o service -libverbs 运行方式: 有IB网络支持: 服务端:./service 客户端:./service 服务端IP 走ROCE: 服务端:./service -g 0 客户端:./service -g 0 服务端IP
[RDMA网络编程用户手册] InfiniBand InfiniBand(IB)是一种服务器和存储器的互联技术,它具有高速、低延迟、低CPU负载、 高效率和可扩展的特性。InfiniBand的关键特性之一是它天然地支持远程直接内存访问(RDMA) 。InfiniBand能够让服务器和服务器之间、服务器和存储设备之间的数据传输不需要主机的CPU 的参与。InfiniBand使用I/O通道进行数据传输,每个I/O通道提供虚拟的NIC或HCA语义
[什么是PERFQUERY?] Perfquery是一种诊断实用程序,它使用通用服务管理包(GMPS)查询InfiniBand端口的性能和错误计数器,以获取端口计数器,例如: PortCounters, PortCountersExtended, PortXmitDataSL, PortRcvDataSL 以及收发数据(e.g. PortXmitData and PortRcvData).​ # perfquery
[MELLANOX SB77X0/SB78X0 EDR 交换机用户手册] 1U EDR 100Gb / s InfiniBand交换系统和IB路由器硬件用户手册 适用的EDR交换机型号:SB7700,SB7790,SB7800,SB7890,SB7780和SB7880。 本

评论列表 共有 0 条评论

暂无评论

微信捐赠

微信扫一扫体验

立即
上传
发表
评论
返回
顶部