InfiniBand aдаптеры Mellanox ConnectX-3
Семейство адаптеров ConnectX-3 с поддержкой протокола VPI (Virtual Protocol Interconnect) от компании Mellanox предоставляет пользователям высокую производительность и самое гибкое решение для построения сетей Ethernet и InfiniBand. Адаптеры ConnectX-3 - это пропускная способность до 56Гбит/сек с подключением по шине PCI Express 3.0. Эти адаптеры способны обеспечить самую быструю передачу данных со временем задержки менее чем 1 мкс и передать более чем 90 млн MPI-сообщений в секунду. Все это говорит о том, что они являются наиболее масштабируемым и подходящим решением для приложений, работа которых зависит от эффективности передачи данных. Семейство адаптеров ConnectX-3 повышают эффективность работы сети, что делает их идеальным выбором для применения в высокопроизводительных вычислительных средах или объединенных датацентрах, работающих с широким спектром приложений.MCX353A-FCBT
MCX354A-FCBT
FEATURES SUMMARY | |
INFINIBAND | HARDWARE-BASED I/O VIRTUALIZATION |
– IBTA Specification 1.2.1 compliant | – Single Root IOV |
– Hardware-based congestion control | – Address translation and protection |
– 16 million I/O channels | – Dedicated adapter resources |
– 256 to 4Kbyte MTU, 1Gbyte messages | – Multiple queues per virtual machine |
ENHANCED INFINIBAND | – Enhanced QoS for vNICs |
– Hardware-based reliable transport | – VMware NetQueue support |
– Collective operations offloads | ADDITIONAL CPU OFFLOADS |
– GPU communication acceleration | – RDMA over Converged Ethernet |
– Hardware-based reliable multicast | – TCP/UDP/IP stateless offload |
– Extended Reliable Connected transport | – Intelligent interrupt coalescence |
– Enhanced Atomic operations | FLEXBOOT™ TECHNOLOGY |
ETHERNET | – Remote boot over InfiniBand |
– IEEE Std 802.3ae 10 Gigabit Ethernet | – Remote boot over Ethernet |
– IEEE Std 802.3ba 40 Gigabit Ethernet | – Remote boot over iSCSI |
– IEEE Std 802.3ad Link Aggregation n and Failover | PROTOCOL SUPPORT |
– IEEE Std 802.3az Energy Efficient Ethernet | – Open MPI, OSU MVAPICH, Intel MPI, MS |
– IEEE Std 802.1Q, .1p VLAN tags and priority | – MPI, Platform MPI |
– IEEE Std 802.1Qau Congestion Notification | – TCP/UDP, EoIB, IPoIB, RDS |
– IEEE P802.1Qaz D0.2 ETS | – SRP, iSER, NFS RDMA |
– IEEE P802.1Qbb D1.0 Priority-based Flow Control | – uDAPL |
– Jumbo frame support (9600B) |
COMPATIBILITY | |
PCI EXPRESS INTERFACE | OPERATING SYSTEMS/DISTRIBUTIONS |
– PCIe Base 3.0 compliant, 1.1 and 2.0 compatible | – Citrix XenServer 6.1 |
– 2.5, 5.0, or 8.0GT/s link rate x8 | – Novell SLES, Red Hat Enterprise Linux (RHEL), and other Linux distributions |
– Auto-negotiates to x8, x4, x2, or x1 | – Microsoft Windows Server 2008/2012 |
– Support for MSI/MSI-X mechanisms | – OpenFabrics Enterprise Distribution (OFED) |
CONNECTIVITY | – Ubuntu 12.04 |
– Interoperable with InfiniBand or 10/40 Ethernet switches. Interoperable with 56GbE Mellanox Switches. | – VMware ESXi 4.x and 5.x |
– Passive copper cable with ESD protection | |
– Powered connectors for optical and active cable support | |
– QSFP to SFP+ connectivity through QSA module |
Ordering Part Number | VPI Ports | Dimensions w/o Brackets |
MCX353A-QCBT | Single QDR 40Gb/s or 10GbE | 14.2cm x 5.2cm |
MCX354A-QCBT | Dual QDR 40Gb/s or 10GbE | 14.2cm x 6.9cm |
MCX353A-FCBT | Single FDR 56Gb/s or 40/56GbE | 14.2cm x 5.2cm |
MCX354A-FCBT | Dual FDR 56Gb/s or 40/56GbE | 14.2cm x 6.9cm |
MCX353A-FCBT | MCX354A-FCBT |