197

NVIDIA строит импульс с предложениями HPC

Хотя NVIDIA не объявляет о каком-либо новом оборудовании на SC18, его графические процессоры продолжают ломать новые позиции в суперкомпьютерном пространстве.

Начнем с того, что в настоящее время ведущие две системы в мире - это, по крайней мере, когда речь идет о доблести с плавающей запятой.

Обе системы улучшились по своим номерам TOP500 Linpack с шести месяцев назад, увеличив производительность Summit на своем первом месте и сводя Сьерра в позицию номер два.

Каждая система добавила к своей сумме Linpack более 20 петафлоп, в результате чего саммит достиг 143,5 петафлоп, а Сьерра - плейфлопу 94,6.

Только эти две системы составляют почти 17 процентов от общего числа всплесков во всем списке TOP500.

702 из 1417 петафлоп в списке получены из ускоренных систем, и большинство из них основаны на графических процессорах NVIDIA P100 и V100 Tesla.

Один или другой из этих графических процессоров является основой для самых мощных систем в США (саммит DOE), Европы (PIS Daint) CSCS и Японии (AIST's AI Bridging Cloud Infrastructure), а также самой мощной коммерческой системы в мире ( ENC HPC4).

Суперкомпьютеры с ускорением GPU с поддержкой NVIDIA также являются одними из самых энергоэффективных.

Согласно списку Green500 8 из 10 лучших 10 и 22 из 25 наиболее энергоэффективных систем оснащены кремнием NVIDIA.

По крайней мере, некоторый импульс компании можно объяснить тем фактом, что V100 может ускорить как традиционные 64-битные симуляции HPC, так и алгоритмы машинного обучения / глубокого обучения

(ML / DL) - последние используют более низкие возможности графического процессора Тензорные сердечники.

Хотя это может показаться странным спариванием год или два назад, все больше и больше пользователей HPC вставляют ML / DL в свои рабочие процессы. Опять же, NVIDIA опередила кривую, к большому огорчению ее конкуренции - AMD, Intel и др.

Это преимущество двойного ускорения отражено в недавнем объявлении развертывания DGX-2 в четырех национальных лабораториях DOE.

DGX-2 - это суперкомпьютер второго поколения NVIDIA, в этом случае оснащенный 16 V100 графическими процессорами, подключенными через высокопроизводительную сетевую структуру NVSwitch.

Хотя GPU-плотная архитектура нацелена конкретно на работу ML / DL, некоторые из этих лабораторий рассматривают использование всех этих графических процессоров для традиционной работы HPC.

Например, Брукхейвенская национальная лаборатория использует свой новый DGX-2 для проведения анализа на основе ML для определенных типов распознавания изображений, но также будет оценивать, как они могут использовать систему для ускорения некоторых из своих устаревших ядерно-физических ядерно-физических кодов

Oak Ridge National Lab использует свой DGX-2 в качестве платформы для Summit, в настоящее время крупнейший суперкомпьютер с ускорением GPU на планете.

Это включает в себя использование системы для экспериментов с различными интенсивными и интенсивными по потреблению данных кодами (включая приложения для машинного обучения), которые пользователи Oak Ridge заинтересованы в ускорении работы на саммите.

Тихоокеанская северо-западная национальная лаборатория имеет несколько специфических применений в виду своей системы DGX-2, включая коды атмосферного моделирования, для моделирования таких вещей, как интенсивность ураганов, и технология сканирования миллиметрового волнового сигнала всего тела, чтобы улучшить безопасность аэропортов, уменьшая ложные тревоги.

Sandia National Laboratories намерена использовать свой DGX-2 в качестве основы для своего «машинного обучения как услуги».

Эта услуга разрабатывается как пользовательский портал, который инкапсулирует поддержку объектов для ряда научных и инженерных кодов.

Цель состоит в том, чтобы позволить исследователям с небольшим опытом в области технологий ML / DL использовать его для решения своих проблем, связанных с доменом.

Ян Бак, генеральный директор NVIDIA и вице-президент Accelerated Computing, говорит, что мы являемся свидетелями нового типа HPC, где симуляция, машинное обучение / глубокое обучение и другие типы аналитики данных формируют новую парадигму для науки и техники.

Некоторая часть этого обусловлена ​​потоком данных, передаваемых с научных приборов и других периферийных устройств, не говоря уже о данных, генерируемых ими самими. Другим аспектом этого является то, что закон Мура больше не может рассчитывать на то, чтобы обеспечить такой рост производительности, который требует все эти приложения.

Говорит Бак:
«Мы вступаем в новую эру».

0 комментариев

Написать сообщение

Пожалуйста, оцените по 5 бальной шкале