Mellanox发布升级版RoCE软件 简化以太网RDMA部署

简介:

Mellanox今天宣布,面向 RoCE(融合以太网上的RDMA)的全新软件驱动程序已上市。这一新的驱动程序旨在使用 RoCE 简化以太网上的 RDMA部署并保证高性能传输,同时无需特意对网络做 “不丢包”的相关配置。这就使得云、存储和企业客户可更加快速而轻松地部署 RoCE,同时可提升应用程序性能、提高基础设施的效率并降低成本。

“RoCE 内置错误恢复机制,使得无丢包网络不再是一项严苛的要求,即客户无需配置他们的网络以防止数据包丢失,并确保最佳性能,”Mellanox 公司首席技术总监 Michael Kagan表示。“现在,更新的适配器软件使得 RoCE 可弹性应对数据包丢失,同时保持以太网的高吞吐量。这些全新的软件支持我们最新的10、25、40、50和100 Gb/s以太网适配器,并且与RoCE 规范完全兼容。”

“Microsoft 部署了一套高级数据中心基础设施,为客户提供企业级的智能云平台,”Microsoft 公司网络开发部门的杰出工程师 Albert Greenberg 说道,“看到RoCE 技术不断发展和演变,我们深受鼓舞。RoCE是高级互连方案的典型范例之一,其有助于 Microsoft Azure 向客户提供具备卓越灵活性、性能和可靠性的云服务。”

融合以太网上的远程直接内存访问 (RoCE) 机制在以太网上提供高效数据传输以及非常低的延迟。RoCE 可在硬件以及软件层面得到实施。Soft-RoCE 是 RoCE 标准的开源软件版本,兼容对 RDMA 缺少硬件支持的普通以太网卡。

“所有以太网 RDMA 协议均在不丢包的情况下具有最佳的表现,但并不是所有的IT 经理都已准备好将他们的网络配置为‘不丢包’,”IDC 数据中心网络研究室主任Brad Casemore表示,“在客户实现大数据和实时分析、数据库应用、基于闪存的SDN存储以及在采用25、50和100 Gb/s以太网的过程中,他们将了解诸如 RoCE 这样的技术如何满足其对应用程序性能和更高效基础设施利用率的需求。”

Mellanox已成为端到端 25、50和 100Gb/s以太网解决方案的市场领导者,通过 ConnectX-4 和 ConnectX-4 Lx 适配器以及 Spectrum 系列以太网交换机引领市场的发展。在 25、50 和100 Gb/s 的以太网速度下,Mellanox 适配器和交换机提供最高的吞吐量、最低的延迟以及最小的功耗。Spectrum 以太网交换机可确保在任意端口配置中公平分配带宽,更高效地处理拥塞,并且避免所有大小的数据包产生丢包现象。

面向Mellanox ConnectX-4 25、50和100 Gb/s以太网适配器的升级版弹性 RoCE 软件现已上市。这些适配器已通过主流 OEM 的资格认定,可用于当今市面上的各种高级服务器平台。


原文发布时间为:2016年7月29日

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关文章
|
RDMA
Mellanox infinoband RDMA SDP
IPoIB Internet Protocol over InfiniBand 就是指利用物理IB网络(IB卡,线缆,交换机,更甚者IB3层交换)通过ip协议进行连接,并进行数据传输! SDP Sockets Direct Protocol由InfiniBand行业协会trade Association软件工作组指定,主要是针对InfiniBand架构.
1245 0
|
4月前
|
人工智能 缓存 调度
技术改变AI发展:RDMA能优化吗?GDR性能提升方案(GPU底层技术系列二)
随着人工智能(AI)的迅速发展,越来越多的应用需要巨大的GPU计算资源。GPUDirect RDMA 是 Kepler 级 GPU 和 CUDA 5.0 中引入的一项技术,可以让使用pcie标准的gpu和第三方设备进行直接的数据交换,而不涉及CPU。
135619 6
|
Linux Anolis 异构计算
关于远程直接内存访问技术 RDMA 的高性能架构设计介绍
本文介绍 RDMA 技术的基本原理及交流在工程上的设计思路。
|
机器学习/深度学习 网络协议 异构计算
浅析GPU通信技术(下)-GPUDirect RDMA
目录 浅析GPU通信技术(上)-GPUDirect P2P 浅析GPU通信技术(中)-NVLink 浅析GPU通信技术(下)-GPUDirect RDMA 1. 背景         前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
25784 0
|
11天前
|
存储 机器学习/深度学习 并行计算
GPU通信互联技术:GPUDirect、NVLink与RDMA
在高性能计算和深度学习领域,GPU已成为关键工具。然而,随着模型复杂度和数据量的增加,单个GPU难以满足需求,多GPU甚至多服务器协同工作成为常态。本文探讨了三种主要的GPU通信互联技术:GPUDirect、NVLink和RDMA。GPUDirect通过绕过CPU实现GPU与设备直接通信;NVLink提供高速点对点连接和支持内存共享;RDMA则在网络层面实现直接内存访问,降低延迟。这些技术各有优势,适用于不同场景,为AI和高性能计算提供了强大支持。

热门文章

最新文章