ВходНаше всё Теги codebook 无线电组件 Поиск Опросы Закон Пятница
5 июля
150268 Топик полностью
she (07.03.2009 22:19, просмотров: 143) ответил Evgeny_CD на +1 (только в твоем посте ссылка куда-то не туда ведет). Толстые дяди для этого почему-то InfiniBand используют ->. Во многих статьях описано, что не стоит строить кластеры на гигабитном ethernet.
Ничего не понимаю. Вот описание скифа этого с википедии. Про инфинибанд написано русским по белому. Какие толстые дяди?
Число вычислительных узлов/процессоров — 625/1250 Конструктив узла — blade Количество монтажных шкафов вычислительного кластера — 14 Тип процессора — четырёхъядерный Intel Xeon E5472, 3,0 ГГц Пиковая производительность — 60 TFLOPS Производительность в тесте Linpack — 47,04 TFLOPS (78 % от пиковой) Тип системной сети DDR InfiniBand (Mellanox ConnectX) Скорость передачи сообщений между узлами — не менее 1450 Мб/сек Задержка при передаче пакетов данных — не более 2,2 мкс Тип управляющей (вспомогательной) сети — Gigabit Ethernet Тип сервисной сети — IPMI + СКИФ-ServNet Оперативная память — 5,5 TB Дисковая память узлов — 15 TB Тип системы хранения данных T-Platforms ReadyStorage ActiveScale Cluster Объём системы хранения данных — 60 TB Занимаемая площадь — 96 м² Потребляемая мощность вычислительного кластера — 330 кВт Потребляемая мощность установки в целом — 520 кВт (в пике возможно до 720 кВт) Суммарная длина кабельных соединений — более 2км