InfiniBand адаптеры Mellanox Connect-IB
Семейство адаптеров Connect-IB предоставляет пользователям очень высокую производительность в сочетании с максимальной пропускной способностью и малым временем задержки. Это дает возможность эффективно решать задачи, связанные с хранением данных и обработкой информации везде где критична высокая производительность. Максимальная пропускная способность при подключении к шине PCI Express 3.0x16 и два порта FDR InfiniBand обеспечивают пропускную способность более 100 Гбит/сек и малое время задержки при обращении ко всем ядрам CPU. Адаптеры Connect-IB позволяют извлечь все преимущества от использования FDR в тех вычислительных системах, где применяется шина PCI Express 2.0x16, за счет увеличения пропускной способности не менее чем в 2 раза по сравнению с существующими на сегодняшний день решениями.MCB191A-FCAT
MCB192A-FBAT
MCB194A-FCAT
MCB193A-FBAT
| FEATURES SUMMARY | |
| INFINIBAND | HARDWARE-BASED I/O VIRTUALIZATION |
| – IBTA Specification 1.2.1 compliant | – Single Root IOV** |
| – FDR 56Gb/s InfiniBand | – Up to 16 physical functions, 256 virtual functions |
| – Hardware-based congestion control | – Address translation and protection |
| – 16 million I/O channels | – Dedicated adapter resources |
| – 256 to 4Kbyte MTU, 1Gbyte messages | – Multiple queues per virtual machine |
| ENHANCED INFINIBAND | – Enhanced QoS for vNICs and vHCAs |
| – Hardware-based reliable transport | – VMware NetQueue support |
| – Extended Reliable Connected transport | PROTOCOL SUPPORT |
| – Dynamically Connected transport service | – OpenMPI, IBM PE, Intel MPI, OSU MPI (MVAPICH/2), Platforms MPI, UPC, Mellanox SHMEM |
| – Signature-protected control objects | – TCP/UDP, IPoIB, RDS |
| – Collective operations offloads | – SRP, iSER, NFS RDMA, SMB Direct |
| – GPU communication acceleration | – uDAPL |
| – Enhanced Atomic operations | |
| STORAGE SUPPORT | |
| – T10-compliant DIF/PI support | |
| – Hardware-based data signature handovers | |
| FLEXBOOT™ TECHNOLOGY | |
| – Remote boot over InfiniBand | |
| COMPATIBILITY | |
| PCI EXPRESS INTERFACE | OPERATING SYSTEMS/DISTRIBUTIONS |
| – PCI Express 2.0 or 3.0 compliant | – Novell SLES, Red Hat Enterprise Linux (RHEL), and other Linux distributions |
| – Auto-negotiates to x16, x8, x4, or x1 | – Microsoft Windows Server 2008/CCS 2003, HPC Server 2008 |
| – Support for MSI-X mechanisms | – VMware ESX 5.1 |
| CONNECTIVITY | – OpenFabrics Enterprise Distribution (OFED) |
| – Interoperable with InfiniBand switches | – OpenFabrics Windows Distribution (WinOF) |
| – Passive copper cable with ESD protection | |
| – Powered connectors for optical and active cable support | |
| Ordering Part Number | InfiniBand Ports | PCI Express |
| MCB191A-FCAT | MCB194A-FCAT | 3.0 x8 |
| MCB192A-FCAT | Dual FDR 56Gb/s | 3.0 x8 |
| MCB193A-FCAT | Single FDR 56Gb/s | 3.0 x16 |
| MCB194A-FCAT | Dual FDR 56Gb/s | 3.0 x16 |
![]() MCB191A-FCAT | ![]() MCB192A-FCAT |
![]() MCB193A-FCAT | ![]() MCB194A-FCAT |




