Адаптеры Mellanox Infiniband
ПОВЫШЕНИЕ ПРОИЗВОДИТЕЛЬНОСТИАдаптеры Mellanox Infiniband обеспечивают более высокий уровень производительности, функциональности и эффективности ИТ-инфраструктуры центров обработки данных
Компания Melanox сохраняет свое лидерство в производстве адаптеров InfiniBand Host Channel (HCA) - самого производительного решения интерконнекта для корпоративных центров обработки данных (ЦОД), высокопроизводительных вычислений и встроенных решений.
ПРЕДЛОЖЕННЫЕ ЦЕННОСТИ
Высокопроизводительные вычисления (НРС) требуют большой полосы пропускания, небольшой задержки и разкрузки процессоров, чтобы получить самую высокую эффективность от сервера и производительности приложения. Melanox HCA обеспечивает такую производительность ввода/вывода, которая удовлетворяет этим требованиям.
ЦОД и облачные вычисления очень требовательны к производительности ввода/вывода, который обеспечивается полосой пропускания, консолидацией и унификацией, а также - к гибкости. Melanox HCA поддерживает консолидацию трафика LAN и SAN и обеспечивает ускорение оборудования для виртуализации серверов.
Гибкость Virtual Protocol Interconnect (VPI) обеспечивает интерконнект для Infiniband, Data Center Ethernet, FCoIB и FCoE.
Адаптеры Melanox InfiniBand Host Channel (HCA)
Предоставляют самое высокопроизводительное решение интерконнекта для корпоративных центров обработки данных, облачных вычислений, высокопроизводительных вычислений и встроенных устройств.Кластерные базы данных, распараллеливаемые приложения, транзакционные услуги и высокопроизводительные встроенные приложения ввода/вывода достигают значительного роста в производительности, что приводит к сокращению времени счета и снижает стоимость одной операции. Виртуализованные сервера становятся более производительными при сокращении потребляемой мощности и уменьшению количества кабелей.
Производительность мирового уровня
Адаптеры Melanox InfiniBand обеспечивают самую большую в отрасли полосу пропускания - 40 Гб/с - с очень небольшой задержкой для серверов, рещающих производительные задачи и для приложений с кластерными системами хранения. Непроизводительная работа процессора сводится к минимуму с помощью разгрузки транспорта на базе оборудования и таких средств ускорения перемещения данных, как RDMA и семантика Send/Receive, чтобы сделать производительность сервера максимальной. Адаптеры Melanox InfiniBand поддерживают от одного до 64 процессорных ядер с нулевым воздействием на величину мертвого времени и могут обслуживать до 10 тысяч узлов.
Виртуализация ввода/вывода
Адаптеры Melanox поддерживают виртуализацию ввода/вывода на уровне оборудования и обеспечивают специальные ресурсы адаптера и гарантированную изоляцию и защиту для виртуальных машин на сервере. Виртуализация ввода/вывода на InfiniBand позволяет менеджерам центров обработки данных повысить используемость серверов и унификацию LAN и SAN, снижая при этом издержки, потребляемую мощность и количество кабелей.
Ускорение систем хранения
Консолидация вычислительной системы с системой хранения приводит к значительной экономии средств по сравнению с "multifabric" сетями.Стандартные блоки и протоколы доступа к файлам улучшают результаты работы InfiniBand RDMA в высокопроизводительном доступе к системам хранения. Адаптеры Melanox поддерживают протоколы SCSI, iSCSI и NFS.
Все карты адаптеров Melanox InfiniBand совместимы с TCP/IP и протоколами и ПО RDMA от OpenFabric. Они также совместимы с управляющим ПО для кластеров и InfiniBand, доступным от Melanox и ОЕМ. У карт адаптеров есть драйверы для всех известных дистрибутивов основных операционных систем.
СonnectX-2 c протоколом виртуального интерконнекта (VPI - Virtual Protocol Interconnect)
Ведущие в отрасли адаптеры Melanex ConnectX-2 InfiniBand предоставляют пользователям самое высокопроизводительное и наиболее гибкое решение для интерконнекта. ConnectX-2 обеспечивают пропускную способность до 40 Гб/с по шине PCI Express 2.0, самую низкую задержку при транзакциях - до 1 микросекунды и могут передавать до 50 миллионов MPI-посланий в секунду, что делает их наиболее удобным и масштабируемым решением не только для нынешних, но и для будущих траннзакционных приложений. Вдобавок ко всем возможностям InfiniBand, отмеченным выше, ConnectX-2 поддерживают самые современные услуги QoS (качество обслуживания), разгрузку оборудования и управление перегрузкой, чтобы максимально повысить эффективность сети и сделать ее практически идеальной для использования в высокопроизводительных вычислениях или центрах обработки данных с широким кругом исполняемых приложений.
Гибкость VPI позволяет любому стандартному сетевому, кластерному протоколу или протоколу системы хранения незаметно функционировать с любой конвергентной сети, используя возможности всего консолидированного ПО. Каждый порт ConnectX-2 может работать на фабриках InfiniBand, Ethernet или DCB (Data Center Bridging), а также поддерживает FC0IB (Fibre Channel over InfiniBand) или FCoE (over Ethernet). ConnectX-2 c VPI упрощает дизайн системы ввода/вывода и облегчает ИТ-менеджерам процесс развертывания инфраструктуры, что очень важно в работе динамического центра обработки данных.
Завершенное end-to-end решение сети InfiniBand на 40 Гб/с
Адаптеры ConnectX-2 являются частью полного 40-гигпбитного портфеля решений Melanox для центров обработки данных и систем высокопроизводительных вычислений, включая коммутаторы и кабели. Семейство 40-гигабитных InfiniBand коммутаторов Melanox IS5000 содержит в себе специальные инструменты, которые упрощают управление сетью и установку, а также обеспечивают необходимые ресурсы для прекрасной масштабируемости и дальнейшего роста. Медные и волоконно-оптические 40-гигабитные кабели Melanox обеспечивают прекрасную работу интерконнекта. Благодаря "end-to-end" решению Melanox ИТ-менеджеры могут быть уверены в прекрасной работе самой эффективной сетевой фабрики.
Преимущества
- Лидирующая в отрасли кластерная производительность
- Высокопроизводительный доступ к сети и системе хранения
- Эффективное использование вычислительных ресурсов
- Гарантированная полоса пропускания и услуги с очень небольшой задержкой
- Надежный транспорт
- Унификация ввода-вывода
- Ускорение виртуализация
- Возможность работы с десятками тысяч узлов
Области применения
- Высокопроизводительные параллельные вычисления
- Виртуализация центров обработки данных с помощью VMware ESX Server
- Приложения для кластерных баз данных, параллельные очереди RDBMS, хранение данных с большой полосой пропускания
- Приложения, чувствительные к времени задержки, такие как финансовый анализ и торговля акциями
- Центры обработки данных для облачных и grid-вычислений
- Производительные приложения для систем хранения, таких как резервное копирование, восстановление, зеркалирование и т.д.
Полная спецификация
InfiniBand
- Совместимость со спецификацией IBTA 1.2.1
- 10, 20 или 40 Гб на порт
- RDMA, семантика приема-получения
- Контроль перегрузки на уровне оборудования
- Основные атомарные операции с целыми числами и указателями
- 16 миллионов каналов ввода/вывода
- 9 виртуальных дорожек - 8 для данных и одна для управления
Расширенный InfiniBand (ConnectX-2)
- Надежный транспорт на основе оборудования
- Разгрузка коллективных действий
- Надежная многоадресная рассылка на основе оборудования
- Надежный расширяемый транспорт
- Расширенные атомарные операции с целыми числами и указателями
- "End-to-end" решения для контроля качества
Виртуализация ввода/вывода на базе оборудования (ConnectX-2)
- Single Root IOV
- Адресная трансляция и защита
- Многочисленные очереди к виртуальной машине
- Поддержка VMware NetQueue
Дополнительная разгрузка процессоров (ConnectX-2)
- Разгрузка TCP/UDP/IP без уведомления
- Интеллектуальное объединение прерываний
- Совместимость с Microsoft RSS и NetDMA
Поддержка хранения (ConnectX-2)
- Fibre Channel поверх InfiniBand или Ethernet
- Совместимость с форматом Т11
MHES14-XTC | MHES18-XTC MHGS18-XTC | MHEA28-XTC MHGA28-XTC |
MHGH19B-XTR MHJH19B-XTR |
MHGH29B-XTR MHJH29B-XTR |
MHRH19B-XTR MHQH19B-XTR |
MHRH29B-XTR MHQH29B-XTR | |
Порты | 1 x 10Gb/s | 1 x 10Gb/s 1 x 20Gb/s |
2 x 10Gb/s 2 x 20Gb/s |
1 x 20Gb/s 1 x 40Gb/s |
2 x 20Gb/s 2 x 40Gb/s |
1 x 20Gb/s 1 x 40Gb/s |
2 x 20Gb/s 2 x 40Gb/s |
ASIC | InfiniHost III Lx | InfiniHost III Lx | InfiniHost III Lx | ConnectX-2 | ConnectX-2 | ConnectX-2 | ConnectX-2 |
Разъем подключения | microGiGaCN | microGiGaCN | microGiGaCN | microGiGaCN | microGiGaCN | QSFP | QSFP |
Хост контролер | PCIe 1.1 | PCIe 1.1 | PCIe 1.1 | PCIe 2.0 | PCIe 2.0 | PCIe 2.0 | PCIe 2.0 |
Скорость | 2.5GT/s | 2.5GT/s | 2.5GT/s | 5.0GT/s | 5.0GT/s | 5.0GT/s | 5.0GT/s |
К-во линий | x4 | x8 | x8 | x8 | x8 | x8 | x8 |
Особенности | Аппаратная передача, RDMA, I / O виртуализации | VPI, аппаратная передача, RDMA, I / O виртуализации, QoS и Congestion Control; IP Stateless Offload | |||||
Поддержка ОС | RHEL, SLES, Windows, HPUX, ESX3.5 | RHEL, SLES, Windows, HPUX, ESX3.5 | RHEL, SLES, Windows, HPUX, ESX3.5 | RHEL, SLES, Windows, ESX3.5 | RHEL, SLES, Windows, ESX3.5 | RHEL, SLES, Windows, ESX3.5 | RHEL, SLES, Windows, ESX3.5 |
RoHS | Есть | Есть | Есть | Есть | Есть | Есть | Есть |