采用 Virtual Protocol Interconnect? 支持 100Gb/s 的單/雙端口適ConnectX-4 適配器卡采用虛擬協議互連 (VPI),支持 EDR 100Gb/sInfiniBand 和 100Gb/s 以太網連接,可為高性能計算、Web 2.0、云、數據分析、數據庫和存儲平臺提供最高性能和最靈活的解決方案。
優勢
– 性能最高的硅芯片,面向需要高帶
寬、低延遲和高消息速率的應用程序
– 世界一流的集群、網絡和存儲性能
– 基于 x86、Power、ARM 和 GPU 的計算
和存儲平臺的智能互連
– 虛擬化疊加 (Overlay) 網絡(VXLAN 和
NVGRE)方面的領先性能
– 高效的 I/O 整合,降低數據中心的成
本和復雜度
– 虛擬化加速
– 功率效率
– 可擴展到數萬個節點
主要功能特性
– EDR 每端口 100Gb/s InfiniBand 或 100Gb/s
以太
隨著應用程序和社交網絡所共享和存儲的數據呈指數級增長,對高速和高性能計算與存儲數據中心的需求也在飆升。ConnectX?-4 為要求最苛刻的數據中心、公共和私有云、Web2.0 和大數據應用以及高性能計算 (HPC) 和存儲系統提供卓越的高性能,使當今的企業能夠滿足數據爆炸產生的需求。ConnectX?-4 提供單端口 100Gb/s 帶寬、最低可用延遲和特定硬件卸載這一無與倫比的組合,可滿足當今和下一代計算與存儲數據中心的需求。
100Gb/s 虛擬協議互連 (VPI) 適配器
ConnectX-4 提供最高吞吐量 VPI 適配器,支持 EDR 100Gb/s InfiniBand 和 100Gb/s 以太網,使任何標準網絡、集群或存儲設備都能在任何利用整合軟件堆棧的聚合網絡上無縫運行。
I/O 虛擬化
ConnectX-4 SR-IOV 技術為服務器中的虛擬機 (VM) 提供專用適配器資源以及有保證的隔離和保護。ConnectX-4 的 I/O 虛擬化可為數據中心管理員提供更出色的服務器利用率,同時降低成本、功耗和線纜復雜度,從而實現在相同硬件上承載更多虛擬機和更多租戶。
疊加 (Overlay) 網絡
為了更好地擴展其網絡,數據中心運營商經常創建疊加 (Overlay) 網絡,通過采用諸如 NVGRE 和 VXLAN 之類的封裝格式的邏輯隧道來傳輸來自各個虛擬機的流量。雖然這解決了網絡可擴展性問題,但隱藏了硬件卸載引擎的 TCP 數據包,增加了主機CPU 的負載。ConnectX-4 通過提供先進的NVGRE 和 VXLAN 硬件卸載引擎有效地解決了這一問題,這些引擎封裝和解封疊加協議標頭,從而支持對封裝的流量執行傳統卸載。利用 ConnectX-4,數據中心運營商可以在新的網絡體系架構中實現本機性能。
HPC 環境
ConnectX-4 為高性能計算集群提供高帶寬、低延遲和高計算效率。集合通信是HPC 中的一種通信模式,在該模式下,一個進程組的所有成員都參與通信并共享數據。CORE-Direct?(集合卸載資源引擎)提供用于實現 MPI 和 SHMEM 集合操作的高級功能。它增強了集合通信可擴展性并使此類操作的 CPU 開銷降到最低,同時提供異步的高性能集合通信功能。通過減少集合通信受到系統噪聲的影響(系統活動對正在
運行作業的不良影響),還增強了應用程序可擴展性。ConnectX-4 通過消除對數據長度的限制而支持數據縮減,從而增強了 CORE-Direct 功能。
ASAP 2?
Mellanox ConnectX-4 EN 提供加速交換和數據包處理 (ASAP2) 技術,用于在
Hypervisor 中執行卸載活動,包括數據路徑、數據包解析、VxLAN 和 NVGRE 封裝/解封等。ASAP2 允許通過使用 SR-IOV 在網卡硬件中處理數據層面進行卸載,同時保持在當今基于軟件的解決方案中使用的控制層面不被修改。因此,顯著提高了性能,而不會產生相關的 CPU 負載。ASAP2 有兩種格式:ASAP2 Flex? 和
ASAP2 Direct?OpenVSwitch (OVS) 是 ASAP2 可以卸載的虛擬交換機示例之一。
RDMA 和 RoCE
ConnectX-4 利用 IBTA RDMA(遠程數據內存訪問)和 RoCE(基于融合以太網的RDMA)技術,在 InfiniBand 和以太網網絡上提供低延遲和高性能。利用數據中心橋接 (DCB) 功能以及 ConnectX-4 高級擁塞控制硬件機制,RoCE 通過第 2 層和第 3 層網絡提供高效的低延遲 RDMA服務。
Mellanox PeerDirectTM
PeerDirect 通信通過消除 PCIe 總線上各組件之間(例如從 GPU 到 CPU)不必要的內部數據復制來提供高效率的 RDMA訪問,從而大幅縮短應用程序運行時間。ConnectX-4 高級加速技術可實現更高的集群效率,并且可擴展到數萬個節點。
存儲加速
存儲應用程序將通過 EDR 提供的更高帶寬獲得性能提升。此外,標準塊和文件訪問協議可利用 RoCE 和 InfiniBandRDMA 進行高性能存儲訪問。與多架構網絡相比,將計算和存儲進行整合的網絡可實現顯著的性價比優勢。
分布式 RAID
ConnectX-4 提供先進的糾刪碼卸載功能,支持分布式 RAID(廉價磁盤冗余陣列),這是一種將多個磁盤驅動器組件組合到一個邏輯單元的數據存儲技術,旨在實現數據冗余和性能改進。ConnectX-4 系列的 Reed-Solomon 功能引入了冗余塊計算,與 RDMA 一起實現高性能和可靠的存儲訪問。
簽名移交
ConnectX-4 支持 T10 數據完整性字段/保護信息 (T10-DIF/PI) 的硬件檢查,可降低CPU 開銷,并加速向應用程序傳遞數據。由適配器對入口和/或出口數據包進行簽名移交處理,可降低啟動器和/或目標機器的 CPU 負載。
軟件支持
所有 Mellanox 適配器卡均受 Windows、Linux 發行版、VMware、FreeBSD 和 CitrixXENServer 支持。ConnectX-4 VPI 適配器支持基于 OpenFabrics 的 RDMA 協議和軟件,并與 OEM 和操作系統供應商的配置和管理工具兼容。
功能特性摘要
INFINIBAND
– 2 端口 EDR / FDR / QDR / DDR / SDR
– 符合 IBTA 規范 1.3
– RDMA、發送/接收語義
– 基于硬件的擁塞控制
– 原子操作
– 1600 萬 I/O 信道
– 256 至 4K 字節 MTU,2G 字節消息
– 8 個虛擬通道 + VL15
增強的功能特性
– 基于硬件的可靠傳輸
– 集合操作卸載
– 矢量集合操作卸載
– Mellanox PeerDirectTM RDMA(亦稱
GPUDirect?)通信加速
– 64/66 編碼
– 擴展可靠連接傳輸 (XRC)
– 動態連接傳輸 (DCT)
– 增強的原子操作
– 高級內存映射支持,允許用戶模式內存
注冊和重新映射 (UMR)
– 按需分頁 (ODP) – 免注冊 RDMA 內存訪問
以太網
– 100GbE/56GbE/50GbE/40GbE/25GbE/10GbE/
1GbE
– IEEE 802.3bj、802.3bm 100 Gb 以太網
– 25G 以太網聯盟 25、50 Gb 以太網
– IEEE 802.3ba 40 Gb 以太網
– IEEE 802.3ae 10 Gb 以太網
– IEEE 802.3az 高能效以太網
– 基于 IEEE 802.3ap 的自動協商和 KR 啟動
– 專有以太網協議(20/40GBASE-R2、
50/56GBASE-R4)
– IEEE 802.3ad、802.1AX 鏈路聚合
– IEEE 802.1Q、802.1P VLAN 標記和優先級
– IEEE 802.1Qau (QCN) 擁塞通知
– IEEE 802.1Qaz (ETS)
– IEEE 802.1Qbb (PFC)
– IEEE 802.1Qbg
– IEEE 1588v2
– 巨型幀支持 (9.6KB)
存儲卸載
– RAID 卸載 - 糾刪碼 (Reed-Solomon) 卸載
– T10 DIF - 針對進口和出口流量的線速簽
名移交操作
疊加 (Overlay) 網絡
– 針對疊加 (Overlay) 網絡和隧道協議的無
狀態卸載
– NVGRE 和 VXLAN 疊加 (Overlay) 網絡的封
裝和解封的硬件卸載
基于硬件的 I/O 虛擬化
– 單根 IOV
– 每個端口多個功能
– 地址轉換和保護
– 每個虛擬機多個隊列
– 針對 vNIC 的增強型 QoS
– VMware NetQueue 支持
虛擬化
– SR-IOV:最多 256 個虛擬功能
– SR-IOV:每端口最多 16 個物理功能
– 虛擬化層次結構(例如 NPAR)
? 虛擬化物理端口上的物理功能
? 每個物理功能上的 SR-IOV
– 1K 入口和出口 QoS 級別
– 保證虛擬機的 QoS
CPU 卸載
– 基于融合以太網的 RDMA (RoCE)
– TCP/UDP/IP 無狀態卸載
– LSO、LRO 校驗和卸載
– RSS(可以在封裝的數據包上完成)、
TSS、HDS、VLAN 插入/剝離、接收流轉向
– 智能中斷合并
遠程啟動
– 通過 InfiniBand 遠程啟動
– 通過以太網遠程啟動
– 通過 iSCSI 遠程啟動
– PXE 和 UEFI
協議支持
– OpenMPI、IBM PE、OSU MPI (MVAPICH/2)、
Intel MPI
– Platform MPI、UPC、Mellanox SHMEM
– TCP/UDP、EoIB、IPoIB、SDP、RDS、
MPLS、VxLAN、NVGRE、GENEVE
– SRP、iSER、NFS RDMA、SMB Direct
– uDAPL
管理和控制接口
– NC-SI、MCTP over SMBus 和 MCTP over PCIe -
基板管理控制器接口
– 用于管理 eSwitch 的 SDN 管理接口
– 用于設備控制和配置的 I2C 接口
– 通用 I/O 引腳
– SPI 閃存接口
– JTAG IEEE 1149.1 和 IEEE 1149.61149.6