Для корректного отображения этого элемента вам необходимо установить FlashPlayer и включить в браузере Java Script.
+7 (495) 775-33-76




Адаптеры Mellanox Infiniband

ПОВЫШЕНИЕ ПРОИЗВОДИТЕЛЬНОСТИ

Адаптеры Mellanox Infiniband обеспечивают более высокий уровень производительности, функциональности и эффективности ИТ-инфраструктуры центров обработки данных

Компания Melanox сохраняет свое лидерство в производстве адаптеров InfiniBand Host Channel (HCA) - самого производительного решения интерконнекта для корпоративных центров обработки данных (ЦОД), высокопроизводительных вычислений и встроенных решений.

ПРЕДЛОЖЕННЫЕ ЦЕННОСТИ

Высокопроизводительные вычисления (НРС) требуют большой полосы пропускания, небольшой задержки и разкрузки процессоров, чтобы получить самую высокую эффективность от сервера и производительности приложения. Melanox HCA обеспечивает такую производительность ввода/вывода, которая удовлетворяет этим требованиям.

ЦОД и облачные вычисления очень требовательны к производительности ввода/вывода, который обеспечивается полосой пропускания, консолидацией и унификацией, а также - к гибкости. Melanox HCA поддерживает консолидацию трафика LAN и SAN и обеспечивает ускорение оборудования для виртуализации серверов.

Гибкость Virtual Protocol Interconnect (VPI) обеспечивает интерконнект для Infiniband, Data Center Ethernet, FCoIB и FCoE.

Адаптеры Melanox InfiniBand Host Channel (HCA)
Предоставляют самое высокопроизводительное решение интерконнекта для корпоративных центров обработки данных, облачных вычислений, высокопроизводительных вычислений и встроенных устройств.Кластерные базы данных, распараллеливаемые приложения, транзакционные услуги и высокопроизводительные встроенные приложения ввода/вывода достигают значительного роста в производительности, что приводит к сокращению времени счета и снижает стоимость одной операции. Виртуализованные сервера становятся более производительными при сокращении потребляемой мощности и уменьшению количества кабелей.

Производительность мирового уровня
Адаптеры Melanox InfiniBand обеспечивают самую большую в отрасли полосу пропускания - 40 Гб/с - с очень небольшой задержкой для серверов, рещающих производительные задачи и для приложений с кластерными системами хранения. Непроизводительная работа процессора сводится к минимуму с помощью разгрузки транспорта на базе оборудования и таких средств ускорения перемещения данных, как RDMA и семантика Send/Receive, чтобы сделать производительность сервера максимальной. Адаптеры Melanox InfiniBand поддерживают от одного до 64 процессорных ядер с нулевым воздействием на величину мертвого времени и могут обслуживать до 10 тысяч узлов.

Виртуализация ввода/вывода
Адаптеры Melanox поддерживают виртуализацию ввода/вывода на уровне оборудования и обеспечивают специальные ресурсы адаптера и гарантированную изоляцию и защиту для виртуальных машин на сервере. Виртуализация ввода/вывода на InfiniBand позволяет менеджерам центров обработки данных повысить используемость серверов и унификацию LAN и SAN, снижая при этом издержки, потребляемую мощность и количество кабелей.

Ускорение систем хранения
Консолидация вычислительной системы с системой хранения приводит к значительной экономии средств по сравнению с "multifabric" сетями.Стандартные блоки и протоколы доступа к файлам улучшают результаты работы InfiniBand RDMA в высокопроизводительном доступе к системам хранения. Адаптеры Melanox поддерживают протоколы SCSI, iSCSI и NFS.

Все карты адаптеров Melanox InfiniBand совместимы с TCP/IP и протоколами и ПО RDMA от OpenFabric. Они также совместимы с управляющим ПО для кластеров и InfiniBand, доступным от Melanox и ОЕМ. У карт адаптеров есть драйверы для всех известных дистрибутивов основных операционных систем.

СonnectX-2 c протоколом виртуального интерконнекта (VPI - Virtual Protocol Interconnect)
Ведущие в отрасли адаптеры Melanex ConnectX-2 InfiniBand предоставляют пользователям самое высокопроизводительное и наиболее гибкое решение для интерконнекта. ConnectX-2 обеспечивают пропускную способность до 40 Гб/с по шине PCI Express 2.0, самую низкую задержку при транзакциях - до 1 микросекунды и могут передавать до 50 миллионов MPI-посланий в секунду, что делает их наиболее удобным и масштабируемым решением не только для нынешних, но и для будущих траннзакционных приложений. Вдобавок ко всем возможностям InfiniBand, отмеченным выше, ConnectX-2 поддерживают самые современные услуги QoS (качество обслуживания), разгрузку оборудования и управление перегрузкой, чтобы максимально повысить эффективность сети и сделать ее практически идеальной для использования в высокопроизводительных вычислениях или центрах обработки данных с широким кругом исполняемых приложений.

Гибкость VPI позволяет любому стандартному сетевому, кластерному протоколу или протоколу системы хранения незаметно функционировать с любой конвергентной сети, используя возможности всего консолидированного ПО. Каждый порт ConnectX-2 может работать на фабриках InfiniBand, Ethernet или DCB (Data Center Bridging), а также поддерживает FC0IB (Fibre Channel over InfiniBand) или FCoE (over Ethernet). ConnectX-2 c VPI упрощает дизайн системы ввода/вывода и облегчает ИТ-менеджерам процесс развертывания инфраструктуры, что очень важно в работе динамического центра обработки данных.

Завершенное end-to-end решение сети InfiniBand на 40 Гб/с
Адаптеры ConnectX-2 являются частью полного 40-гигпбитного портфеля решений Melanox для центров обработки данных и систем высокопроизводительных вычислений, включая коммутаторы и кабели. Семейство 40-гигабитных InfiniBand коммутаторов Melanox IS5000 содержит в себе специальные инструменты, которые упрощают управление сетью и установку, а также обеспечивают необходимые ресурсы для прекрасной масштабируемости и дальнейшего роста. Медные и волоконно-оптические 40-гигабитные кабели Melanox обеспечивают прекрасную работу интерконнекта. Благодаря "end-to-end" решению Melanox ИТ-менеджеры могут быть уверены в прекрасной работе самой эффективной сетевой фабрики.

Преимущества
  • Лидирующая в отрасли кластерная производительность
  • Высокопроизводительный доступ к сети и системе хранения
  • Эффективное использование вычислительных ресурсов
  • Гарантированная полоса пропускания и услуги с очень небольшой задержкой
  • Надежный транспорт
  • Унификация ввода-вывода
  • Ускорение виртуализация
  • Возможность работы с десятками тысяч узлов

Области применения
  • Высокопроизводительные параллельные вычисления
  • Виртуализация центров обработки данных с помощью VMware ESX Server
  • Приложения для кластерных баз данных, параллельные очереди RDBMS, хранение данных с большой полосой пропускания
  • Приложения, чувствительные к времени задержки, такие как финансовый анализ и торговля акциями
  • Центры обработки данных для облачных и grid-вычислений
  • Производительные приложения для систем хранения, таких как резервное копирование, восстановление, зеркалирование и т.д.

Полная спецификация

InfiniBand
    Совместимость со спецификацией IBTA 1.2.1
  • 10, 20 или 40 Гб на порт
  • RDMA, семантика приема-получения
  • Контроль перегрузки на уровне оборудования
  • Основные атомарные операции с целыми числами и указателями
  • 16 миллионов каналов ввода/вывода
  • 9 виртуальных дорожек - 8 для данных и одна для управления

Расширенный InfiniBand (ConnectX-2)
    Надежный транспорт на основе оборудования
  • Разгрузка коллективных действий
  • Надежная многоадресная рассылка на основе оборудования
  • Надежный расширяемый транспорт
  • Расширенные атомарные операции с целыми числами и указателями
  • "End-to-end" решения для контроля качества

Виртуализация ввода/вывода на базе оборудования (ConnectX-2)
    Single Root IOV
  • Адресная трансляция и защита
  • Многочисленные очереди к виртуальной машине
  • Поддержка VMware NetQueue

Дополнительная разгрузка процессоров (ConnectX-2)
    Разгрузка TCP/UDP/IP без уведомления
  • Интеллектуальное объединение прерываний
  • Совместимость с Microsoft RSS и NetDMA

Поддержка хранения (ConnectX-2)
    Fibre Channel поверх InfiniBand или Ethernet
  • Совместимость с форматом Т11


  MHES14-XTC MHES18-XTC MHGS18-XTC MHEA28-XTC

MHGA28-XTC
MHGH19B-XTR

MHJH19B-XTR
MHGH29B-XTR

MHJH29B-XTR
MHRH19B-XTR

MHQH19B-XTR
MHRH29B-XTR

MHQH29B-XTR
Порты 1 x 10Gb/s 1 x 10Gb/s

1 x 20Gb/s
2 x 10Gb/s

2 x 20Gb/s
1 x 20Gb/s

1 x 40Gb/s
2 x 20Gb/s

2 x 40Gb/s
1 x 20Gb/s

1 x 40Gb/s
2 x 20Gb/s

2 x 40Gb/s
ASIC InfiniHost III Lx InfiniHost III Lx InfiniHost III Lx ConnectX-2 ConnectX-2 ConnectX-2 ConnectX-2
Разъем подключения microGiGaCN microGiGaCN microGiGaCN microGiGaCN microGiGaCN QSFP QSFP
Хост контролер PCIe 1.1 PCIe 1.1 PCIe 1.1 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0
Скорость 2.5GT/s 2.5GT/s 2.5GT/s 5.0GT/s 5.0GT/s 5.0GT/s 5.0GT/s
К-во линий x4 x8 x8 x8 x8 x8 x8
Особенности Аппаратная передача, RDMA, I / O виртуализации VPI, аппаратная передача, RDMA, I / O виртуализации, QoS и Congestion Control; IP Stateless Offload
Поддержка ОС RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5
RoHS Есть Есть Есть Есть Есть Есть Есть




© Copyright "СТОРУС" 2003 - 2024