<th id="dd759"><noframes id="dd759">
<span id="dd759"><video id="dd759"></video></span>
<th id="dd759"><noframes id="dd759"><progress id="dd759"></progress>
<th id="dd759"></th>
<progress id="dd759"><noframes id="dd759">
<th id="dd759"></th><progress id="dd759"><noframes id="dd759">
<th id="dd759"></th>
<strike id="dd759"><address id="dd759"><span id="dd759"></span></address></strike>
Cloud Zoom small image

帶 Virtual Protocol Interconnect? 的單/雙端口適配器,帶有 Virtual Protocol Interconnect (VPI) 的 ConnectX-3 適配器卡支持 InfiniBand 和以太網連接,為企業數據中心、高性能計算和嵌入式環境中使用的 PCI Express Gen3 服務器提供性能最高和最靈活的互連解決方案。

優勢

– 一個用于 InfiniBand、10/40/56 Gig 以太網或數據中心橋接架構的適配器

– 世界一流的集群、網絡和存儲性能

– 有保證的帶寬和低延遲服務

– I/O 整合

– 虛擬化加速

– 高能效

– 可擴展到數萬個節點

主要功能特性

– 虛擬協議互連

– 1 微秒 MPI ping 延遲

– 每端口最高 56Gb/s InfiniBand 或 40/56Gb 以太網

– 提供單端口和雙端口選項

– PCI Express 3.0(高達 8GT/s)

名稱:ConnectX?-3 VPI
可在線通過咨詢了解詳情
 
通過以下按鈕進入下一步
  • 詳情
  • 評價
  • 彩頁下載
  • 使用手冊
集群數據庫、并行處理、事務性服務和高性能嵌入式 I/O 應用程序會實現顯著的性能改進,從而縮短完成時間并降低每操作成本。支持 VPI 的 ConnectX-3 還可以通過一種硬件設計來服務于多種架構,從而簡化系統開發。

Virtual Protocol Interconnect

支持 VPI 的適配器使任何標準的網絡、集群、存儲和管理協議均可在利用整合軟件棧的任何聚合網絡上無縫運行。憑借自動感知功能,每個 ConnectX-3 端口可以識別 InfiniBand、以太網或數據中心橋接 (DCB) 架構,并在其上運行。FlexBoot? 通過允許從遠程 InfiniBand 或 LAN 存儲目標引導服務器,提供了額外的靈活性。帶 VPI 和 FlexBoot 的 ConnectX-3 簡化了 I/O 系統設計,使得 IT 經理能夠更方便地部署可解決動態數據中心難題的基礎架構。

世界一流的性能

InfiniBand — ConnectX-3 為性能驅動型服務器和存儲集群應用程序提供低延遲、高帶寬和高計算效率。通過從 CPU 卸載協議處理和數據移動開銷(如 RDMA 和發送/接收語義)實現高效計算,從而為應用程序提供更多處理器能力。CORE-Direct? 通過卸載數據廣播和收集等應用程序開銷,以及全局同步通信例程,帶來了更高水平的性能提升。GPU 通信加速通過消除不必要的內部數據復制提供了額外的效率,從而大幅縮短應用程序運行時間。ConnectX-3 高級加速技術可實現更高的集群效率,并且可大規模地擴展到數萬個節點。

基于融合以太網的 RDMA — 利用 IBTA RoCE 技術的 ConnectX-3 通過以太網網絡提供類似的低延遲和高性能。利用數據中心橋接功能,RoCE 通過第 2 層以太網提供高效的低延遲 RDMA 服務。借助現有以太網基礎架構中的鏈路級別互操作性,網絡管理員可以利用現有數據中心架構管理解決方案。

套接字加速 — 利用 TCP/UDP/IP 傳輸的應用程序可以在 InfiniBand 或 10/40GbE 上實現行業領先的吞吐量。ConnectX-3 中基于硬件的無狀態卸載引擎可降低 IP 數據包傳輸的 CPU 開銷。套接字加速軟件可進一步提高延遲敏感型應用程序的性能。

I/O 虛擬化 — ConnectX-3 SR-IOV 技術為服務器中的虛擬機 (VM) 提供專用適配器資源以及有保證的隔離和保護。ConnectX-3 的 I/O 虛擬化為數據中心管理員提供更好的服務器利用率,同時降低成本、功耗和線纜復雜性。

存儲加速 — 與多架構網絡相比,將計算和存儲進行整合的網絡可實現顯著的性價比優勢。標準塊和文件訪問協議可利用 InfiniBand RDMA 進行高性能存儲訪問。

軟件支持

所有 Mellanox 適配器卡均受 Windows、Linux 發行版、VMware 和 Citrix XenServer 支持。ConnectX-3 VPI 適配器支持基于 OpenFabrics 的 RDMA 協議和軟件,并與 OEM 和操作系統供應商的配置和管理工具兼容。

功能特性摘要

INFINIBAND

– 符合 IBTA 規范 1.2.1

– 基于硬件的擁塞控制

– 1600 萬 I/O 信道

– 256 至 4K 字節 MTU,1G 字節消息

增強的 INFINIBAND

– 基于硬件的可靠傳輸

– 集合操作卸載

– GPU 通信加速

– 基于硬件的可靠多播

– 擴展可靠連接傳輸

– 增強的原子操作

以太網

– IEEE Std 802.3ae 10 Gb 以太網

– IEEE Std 802.3ba 40 Gb 以太網

– IEEE Std 802.3ad 鏈路聚合和故障轉移

– IEEE Std 802.3az 高能效以太網

– IEEE Std 802.1Q/.1p VLAN 標記和優先級

– IEEE Std 802.1Qau 擁塞通知

– IEEE P802.1Qaz D0.2 ETS

– IEEE P802.1Qbb D1.0 基于優先級的流量控制

– 巨型幀支持 (9600B)

基于硬件的 I/O 虛擬化

– 單根 IOV

– 地址轉換和保護

– 專用適配器資源

– 每個虛擬機多個隊列

– 針對 vNIC 的增強型 QoS

– VMware NetQueue 支持

其他 CPU 卸載

– 基于融合以太網的 RDMA

– TCP/UDP/IP 無狀態卸載

– 智能中斷合并

FLEXBOOT? 技術

– 通過 InfiniBand 遠程啟動

– 通過以太網遠程啟動

– 通過 iSCSI 遠程啟動

協議支持

– Open MPI、OSU MVAPICH、Intel MPI、MS

– MPI、Platform MPI

– TCP/UDP、EoIB、IPoIB、RDS

– SRP、iSER、NFS RDMA

– uDAPL

兼容性

PCI EXPRESS 接口

– 符合 PCIe Base 3.0 標準,兼容 1.1 和 2.0

– 2.5、5.0 或 8.0GT/s 鏈路速率 x8

– 自動協商為 x8、x4、x2 或 x1

– 支持 MSI/MSI-X 機制

連接

– 可與 InfiniBand 或 10/40Gb 以太網交換機互操作??膳c 56GbE Mellanox 交換機互操作。

– 具有 ESD 保護的無源銅纜

– 用于光纖和有源電纜支持的供電連接器

– 通過 QSA 模塊實現的 QSFP 到 SFP+ 連接

操作系統/發行版

– Citrix XenServer 6.1

– Novell SLES、Red Hat Enterprise Linux (RHEL) 和其他 Linux 發行版

– Microsoft Windows Server 2008/2012/2012 R2

– OpenFabrics 企業發行版 (OFED)

– Ubuntu 12.04

– VMware ESXi 4.x 和 5.x

麻花电影网在线播放