12 самых быстрых суперкомпьютеров в мире — в 2020 году

Применение

Суперкомпьютеры используются во всех сферах, где для решения задачи применяется численное моделирование; там, где требуется огромный объём сложных вычислений, обработка большого количества данных в реальном времени, или решение задачи может быть найдено простым перебором множества значений множества исходных параметров (см. Метод Монте-Карло).

Совершенствование методов численного моделирования происходило одновременно с совершенствованием вычислительных машин: чем сложнее были задачи, тем выше были требования к создаваемым машинам; чем быстрее были машины, тем сложнее были задачи, которые на них можно было решать. Поначалу суперкомпьютеры применялись почти исключительно для оборонных задач: расчёты по ядерному и термоядерному оружию, ядерным реакторам. Потом, по мере совершенствования математического аппарата численного моделирования, развития знаний в других сферах науки — суперкомпьютеры стали применяться и в «мирных» расчётах, создавая новые научные дисциплины, как то: численный прогноз погоды, вычислительная биология и медицина, вычислительная химия, вычислительная гидродинамика, вычислительная лингвистика и проч., — где достижения информатики сливались с достижениями прикладной науки.

Ниже приведён далеко не полный список областей применения суперкомпьютеров:

  • Математические проблемы:
    • Криптография
    • Статистика
  • Физика высоких энергий:
    • процессы внутри атомного ядра, физика плазмы, анализ данных экспериментов, проведённых на ускорителях
    • разработка и совершенствование атомного и термоядерного оружия, управление ядерным арсеналом, моделирование ядерных испытаний
    • моделирование жизненного цикла ядерных топливных элементов, проекты ядерных и термоядерных реакторов
  • Наука о Земле:
    • прогноз погоды, состояния морей и океанов
    • предсказание климатических изменений и их последствий
    • исследование процессов, происходящих в земной коре, для предсказания землетрясений и извержений вулканов
    • анализ данных геологической разведки для поиска и оценки нефтяных и газовых месторождений, моделирование процесса выработки месторождений
    • моделирование растекания рек во время паводка, растекания нефти во время аварий

Вычислительная биология: фолдинг белка, расшифровка ДНК

Вычислительная химия и медицина: изучение строения вещества и природы химической связи как в изолированных молекулах, так и в конденсированном состоянии, поиск и создание новых лекарств

  • Физика:
    • газодинамика: турбины электростанций, горение топлива, аэродинамические процессы для создания совершенных форм крыла, фюзеляжей самолетов, ракет, кузовов автомобилей
    • гидродинамика: течение жидкостей по трубам, по руслам рек
    • материаловедение: создание новых материалов с заданными свойствами, анализ распределения динамических нагрузок в конструкциях, моделирование крэш-тестов при конструировании автомобилей
  • в качестве сервера для искусственных нейронных сетей
  • создание принципиально новых способов вычисления и обработки информации (Квантовый компьютер, Искусственный интеллект)

Да здравствуют оверклокеры: как в дата-центрах стало доминировать жидкостное охлаждение

Перевод

«С высокоскоростными компьютерами одним воздухом не обойтись»

В кинофильме «Железный человек 2» есть момент, когда Тони Старк смотрит старый фильм своего почившего отца, где тот говорит: «Я ограничен технологиями своего времени, но однажды ты сможешь разобраться в этом. И тогда ты изменишь мир». Это фантастика, но идея, которую она выражает, вполне реальна. Идеи инженеров часто сильно опережают их время. В «Звёздном пути» гаджеты были всегда, но остальному миру пришлось работать несколько десятилетий над тем, чтобы создать планшеты и электронные книги.
Концепция жидкостного охлаждения прекрасно вписывается в эту категорию. Сама идея существует с 1960-х, но она оставалась радикальной по сравнению с куда как более дешёвым и безопасным вариантом воздушного охлаждения. Потребовалось более 40 лет, пока жидкостное охлаждение не начало понемногу развиваться в 2000-х, да и тогда оно было в основном прерогативой любителей ПК, стремившихся разогнать свои CPU далеко за пределы рекомендованных Intel и AMD ограничений.

Распределенные суперкомпьютеры

Оппортунистические подходы

Пример архитектуры сетевой вычислительной системы, соединяющей множество персональных компьютеров через Интернет.

Оппортунистический суперкомпьютер — это форма сетевых грид-вычислений, при которой «супер-виртуальный компьютер» из множества слабосвязанных вычислительных машин-добровольцев выполняет очень большие вычислительные задачи. Грид-вычисления применялись к ряду крупномасштабных до неловко параллельных задач, которые требуют масштабирования производительности суперкомпьютеров. Однако базовые подходы к сетевым и облачным вычислениям , основанные на добровольных вычислениях, не могут обрабатывать традиционные суперкомпьютерные задачи, такие как гидродинамическое моделирование.

Самая быстрая система распределенных вычислений — это проект распределенных вычислений Folding @ home (F @ h). По состоянию на апрель 2020 года компания F @ h сообщила о 2,5 эксафлопс вычислительной мощности x86 . Из них более 100 пфлопс приходится на клиентов, работающих на различных графических процессорах, а остальные — на различные системы ЦП.

Платформа Berkeley Open Infrastructure for Network Computing (BOINC) содержит ряд проектов распределенных вычислений. По состоянию на февраль 2017 года BOINC зафиксировал вычислительную мощность более 166 петафлопс на более чем 762 тысячах активных компьютеров (хостов) в сети.

Квази-оппортунистические подходы

Квазиоппортунистические суперкомпьютеры — это форма распределенных вычислений, при которой «супервиртуальный компьютер» многих сетевых географически разнесенных компьютеров выполняет вычислительные задачи, требующие огромной вычислительной мощности. Квази-оппортунистические суперкомпьютеры нацелены на обеспечение более высокого качества обслуживания, чем гибкие сетевые вычисления, за счет достижения большего контроля над назначением задач распределенным ресурсам и использования информации о доступности и надежности отдельных систем в суперкомпьютерной сети. Однако квази-оппортунистическое распределенное выполнение требовательного программного обеспечения для параллельных вычислений в гридах должно достигаться за счет реализации соглашений о распределении по сетке, подсистем совместного размещения, механизмов распределения с учетом топологии связи, отказоустойчивых библиотек передачи сообщений и предварительной обработки данных.

Какие задачи могут решать

В современном мире время имеет такую же высокую стоимость, как и деньги. Основная задача суперкомпьютера — считать в кратчайшие сроки большие массивы данных. Для этого производительность суперкомпьютера должна в десятки раз превышать обычный ПК.

12 самых быстрых суперкомпьютеров в мире - в 2020 году

Решаемые задачи могут быть абсолютной из любой области науки, где используются статистические данные и математическое моделирование. Суперкомпьютеры повсеместно используются для производства оружия, самолетов, в автомобильной промышленности, в строительстве дорог и домов, в научных и космических исследованиях, в конструкторских разработках, в медицине и создании новых лекарств, а также в метеорологии.

12 самых быстрых суперкомпьютеров в мире - в 2020 году

На любой вкус

Любой желающий может сегодня помочь науке, приняв участие в одном из проектов распределенных вычислений. Причем, разумеется, перечень наук не ограничивается только математикой, астрономией и биологией. Можно помочь физикам в планировании экспериментов на Большом адронном коллайдере или проектировании Neutrino Factory — будущего ускорителя, способного порождать потоки нейтрино. Широкий выбор у любителей астрономии — от поиска сигналов внеземного разума и обнаружения гравитационных волн с помощью гравитационно-волновых обсерваторий LIGO и GEO 600 до расчета конфигурации поглощения нашей галактикой одного из звездных скоплений созвездия Стрельца, нахождения «оптимальной» космологической модели Вселенной и расчета орбит астероидов, представляющих угрозу для Земли.

В области биологии и медицины запущено множество проектов по изучению структуры белков, новых средств профилактики СПИД, изучения раковых заболеваний и борьбы с вирусами семейства Flaviviridae, ответственными за возникновение вспышек лихорадки Деньге, желтой лихорадки и лихорадки Западного Нила. Химикам могут помочь решение задач квантовой химии методами Монте-Карло и моделирование межатомного взаимодействия в твердых телах.

Математики традиционно используют распределенные вычисления для поиска различных чисел: наименьшего числа Серпинского, простых чисел нескольких видов, простых чисел Вифериха, новых делителей чисел Ферма — или доказательства гипотезы Гольдбаха. Криптографы занимаются проверкой алгоритма шифрования RC5, поиском оптимальных линеек Голомба и дешифровкой последней из нерасшифрованных немецких радиограмм, датируемой 1942 годом. Кибернетики изучают возможность создания глобальной нейронной сети и воссоздают поведение человека на основе компьютерного моделирования лингвистического способа познания мира. А климатологи моделируют различные варианты изменения климата: в рамках проекта ClimatePrediction с 2002 года проверено более 400 000 климатических моделей с общим модельным временем 40 млн лет.

Подробную информацию о проектах можно найти на сайте www.distributed.ru

Статья опубликована в журнале «Популярная механика»
(№6, Июнь 2009).

Производительность

Производительность суперкомпьютеров чаще всего оценивается и выражается в количестве операций над числами с плавающей точкой в секунду (FLOPS). Это связано с тем, что задачи численного моделирования, под которые и создаются суперкомпьютеры, чаще всего требуют вычислений, связанных с вещественными числами, зачастую с высокой степенью точности, а не целыми числами. Поэтому для суперкомпьютеров неприменима мера быстродействия обычных компьютерных систем — количество миллионов операций в секунду (MIPS). При всей своей неоднозначности и приблизительности, оценка во флопсах позволяет легко сравнивать суперкомпьютерные системы друг с другом, опираясь на объективный критерий.

Первые суперкомпьютеры имели производительность порядка 1 кфлопс, то есть 1000 операций с плавающей точкой в секунду. В США компьютер, имевший производительность в 1 миллион флопсов (1 Мфлопс) (), был создан в 1964 году. Известно, что в 1963 году в московском НИИ-37 (позже НИИ ДАР) был разработан компьютер на основе модулярной арифметики с производительностью 2,4 млн оп/с. Это экспериментальный компьютер второго поколения (на дискретных транзисторах) Т340-А (гл. конструктор Д. И. Юдицкий). Однако следует отметить, что прямое сравнение производительности модулярных и традиционных ЭВМ некорректно. Модулярная арифметика оперирует только с целыми числами. Представление вещественных чисел в модулярных ЭВМ возможно только в формате с фиксированной запятой, недостатком которого является существенное ограничение диапазона представления чисел.

Планка в 1 миллиард флопс (1 Гигафлопс) была преодолена суперкомпьютерами NEC SX-2 в 1983 году с результатом 1.3 Гфлопс.

Граница в 1 триллион флопс (1 Тфлопс) была достигнута в 1996 году суперкомпьютером ASCI Red.

Рубеж 1 квадриллион флопс (1 Петафлопс) был взят в 2008 году суперкомпьютером IBM Roadrunner.

В 2010-х годах несколькими странами ведутся работы, нацеленные на создание к 2020 году экзафлопсных компьютеров, способных выполнять 1 квинтиллион операций с плавающей точкой в секунду и потребляющих при этом не более нескольких десятков мегаватт.

Облака для высокопроизводительных вычислений

Облачные вычисления с их недавним и быстрым расширением и развитием в последние годы привлекли внимание пользователей и разработчиков высокопроизводительных вычислений (HPC). Облачные вычисления пытаются предоставить HPC-as-a-service точно так же, как другие формы услуг, доступных в облаке, такие как программное обеспечение как услуга , платформа как услуга и инфраструктура как услуга

Пользователи HPC могут извлечь выгоду из облака с разных сторон, например, масштабируемость, доступность ресурсов по требованию, скорость и недорого. С другой стороны, перемещение приложений высокопроизводительных вычислений также связано с рядом проблем. Хорошими примерами таких проблем являются накладные расходы виртуализации в облаке, мультиарендность ресурсов и проблемы с задержкой в ​​сети. В настоящее время проводится много исследований, чтобы преодолеть эти проблемы и сделать высокопроизводительные вычисления в облаке более реальной возможностью.

В 2016 году Penguin Computing , R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Sabalcore и Gomput начали предлагать облачные вычисления HPC . Облако Penguin On Demand (POD) — это вычислительная модель без оборудования для выполнения кода, но каждому пользователю предоставляется виртуализированный узел входа. Вычислительные узлы POD подключаются через невиртуализированные сети Ethernet 10 Гбит / с или QDR InfiniBand . Возможности подключения пользователей к центру обработки данных POD варьируются от 50 Мбит / с до 1 Гбит / с. Ссылаясь на Elastic Compute Cloud EC2 от Amazon, Penguin Computing утверждает, что виртуализация вычислительных узлов не подходит для высокопроизводительных вычислений. Penguin Computing также критиковала, что облака HPC могут выделять вычислительные узлы клиентам, находящимся далеко друг от друга, что вызывает задержку, снижающую производительность некоторых приложений HPC.

Что такое суперкомпьютер?

Суперкомпьютеры выполняют массовую параллельную обработку данных, при которой задачи разбиваются на части и одновременно обрабатываются тысячами процессоров. Это их главное отличие от обычных компьютеров, которые последовательно решают задачу за задачей. Если воспользоваться аналогией, то это все равно что подойти к кассам в супермаркете с полной тележкой и разделить товары между несколькими друзьями. Каждый оплатит свою часть отдельно, после чего вы встретитесь у выхода и снова сложите продукты в одну тележку. Чем больше друзей, тем быстрее можно завершить параллельную обработку — по крайней мере, в теории.

«Если система настроена правильно, то какую бы задачу вы ни поставили суперкомпьютеру, он справится с ней гораздо быстрее, чем компьютер с меньшим количеством процессоров или одним процессором. Для некоторых вычислений домашнему ноутбуку понадобились бы недели или даже месяцы, но если вы сможете настроить эффективную параллельную обработку данных, то это займет не больше дня», — объясняет исследователь из Политехнического института Ренсселера Джоан Росс, которая недавно вернулась из Аргоннской национальной лаборатории, где она проработала шесть месяцев.

По словам Росс, обработке данных способны помешать некорректные параметры программы. Например, расчеты могут идти стремительно при работе четырех процессоров, но замедлиться при подключении пятого. 

Суперкомпьютер ПАНГЕЯ III

12 самых быстрых суперкомпьютеров в мире - в 2020 году

Скорость: 17.8 петафлопсЯдра: 291,024

Поставщик: IBMРасположение: Центр технических и научных исследований CSTJF в Пау, Франция.

Pangea III опирается на высокопроизводительную архитектуру IBM, оптимизированную для искусственного интеллекта. IBM и NVIDIA работали вместе над созданием единственного в отрасли соединения между процессорами и графическими процессорами NVLink, которое обеспечивает более чем в 5 раз более высокую пропускную способность памяти между процессорами IBM POWER9 и NVIDIA Tesla V100 Tensor Core, чем традиционные системы на базе x86.

Архитектура не только повышает производительность вычислений, но и повышает энергоэффективность. Новая система использует менее 10% потребления энергии на петафлоп, как и ее предшественница, Pangea I и II.

Pangea III имеет различные применения, особенно в трех различных областях — разведка и разработка сейсмических изображений, модели разработки и добычи, а также оценка и селективность активов.

Summit

Суперкомпьютер Summit, созданный американской компанией IBM для Национальной лаборатории в Окридже. Технику ввели в эксплуатацию летом 2018 года, заменив модель Titan, которая считалась самой производительной американской СуперЭВМ. Разработка лучшего современного суперкомпьютера обошлась американскому правительству в 200 млн долларов.

Устройство потребляет около 15 МВт электроэнергии – столько, сколько вырабатывает небольшая ГЭС. Для охлаждения вычислительной системы используется 15,1 кубометра циркулирующей по трубкам воды. Сервера IBM расположены на площади около 930 кв.м – территория, которую занимают 2 баскетбольные площадки. Для работы суперкомпьютера используется 220 км электрокабелей.

Производительность компьютера обеспечивается 9216 процессорами модели IBM POWER9 и 27648 графическими чипами Tesla V100 от Nvidia. Система получила целых 512 Гбайт оперативной и 250 Пбайт постоянной памяти (интерфейс 2,5 Тбайт/с). Максимальная скорость вычислений – 200 Пфлопс, а номинальная производительность – 143,5 Пфлопс.

По словам американских ученых, запуск в работу модели Summit позволил повысить вычислительные мощности в сфере энергетики, экономическую конкурентоспособность и национальную безопасность страны. Среди задач, которые будут решаться с помощью суперкомпьютера, отмечают поиск связи между раковыми заболеваниями и генами живого организма, исследование причин появления зависимости от наркотиков и климатическое моделирование для составления точных прогнозов погоды.

От математики до внеземного разума

Идея совместного использования вычислительных ресурсов нескольких машин возникла еще на заре компьютерной эпохи. В 1973 году Джон Шох и Жон Хапп из знаменитого калифорнийского научно-исследовательского центра Xerox PARC (Palo Alto Research Center) написали программу, которая по ночам запускалась в локальную сеть PARC, расползалась по работающим компьютерам и заставляла их выполнять вычисления.

Качественный скачок в обеспечении совместной работы многих компьютеров над единой задачей произошел с появлением первых персональных компьютеров и электронной почты. В 1988 году Арьен Ленстра и Марк Менес написали программу для факторизации (разбиения на множители) длинных чисел. Для ускорения процесса программа могла запускаться на нескольких не связанных друг с другом машинах, каждая из которых обрабатывала свой небольшой фрагмент. Новые блоки заданий рассылались на компьютеры участников с центрального сервера проекта по обычной электронной почте. Для успешного разложения на множители числа длиной в сто знаков этому сообществу потребовалось два года и несколько сотен персональных компьютеров. С успешным завершением проекта Ленстра-Менеса на древе эволюции вычислительных систем выросла новая жизнеспособная ветвь — распределенные вычисления.

28 января 1997 года распределенные вычисления сделали очередной шажок — стартовал конкурс RSA Data Security на решение задачи взлома методом простого перебора 56-битного ключа шифрования информации RC5−32/12/7. Благодаря хорошей технической и организационной подготовке проект, организованный некоммерческим сообществом distributed.net, быстро получил широкую известность.

17 мая 1999 года Дэвид Геди и Крейг Кеснов из Лаборатории космических исследований Калифорнийского университета в Беркли запустили распределенный проект поиска сигналов внеземных цивилизаций SETI@home (SETI — Search for Extraterrestrial Intelligence at Home), который до сих пор остается одним из наиболее массовых проектов. Огромной популярности способствовало то, что впервые была переведена на рельсы распределенных вычислений интригующая научная задача, далекая от скучной факторизации или взлома очередного ключа. Заслуга организаторов SETI@home не только в постановке интересной задачи, но и в разработке универсальной платформы BOINC (Berkeley Open Infrastructure for Network Computing) для запуска новых проектов. Сегодня количество проектов на этой платформе уже перевалило за сотню. Клиентская часть BOINC позволяет подключаться к нескольким проектам, вести статистику участия в них и наблюдать за протеканием вычислений. Практически каждый, кто обладает базовыми навыками программирования и у кого найдется достойная поддержки научная идея, может организовать собственный проект распределенных вычислений на основе BOINC. Так сделал, например, физик Константин Метлов из Донецкого физико-технического института (ДонФТИ). Практически в одиночку он запустил проект Magnetism@home по расчету магнитных конфигураций цилиндрических наноэлементов.

Общее определение и описание

Суперкомпьютер – это высокопроизводительная вычислительная машина, по своим параметрам существенно превосходящая большинство образцов компьютерной техники. Обычно они представляют собой значительное количество параллельно работающих серверных ЭВМ, соединенных локальной сетью. За счет концентрации процессорной мощности, подобные устройства могут обрабатывать огромные массивы данных.

12 самых быстрых суперкомпьютеров в мире - в 2020 годуСовременные супер-ЭВМ состоят из тысяч процессоров, соединенных километрами проводов и кабелей

Одним из главных элементов суперкомпьютера является планировщик задач. В его функции входит распределение мощностей системы для различных задач, отслеживание их исполнения, контроль загруженности отдельных узлов. Фактически он играет роль главного распорядителя проведения вычисления.

Не менее важным компонентом является специальная система хранения информации. Как правило, она состоит из двух частей: одна предназначена для расчетов, другая используется для хранения данных.

Современный суперкомпьютер – огромное устройство, сравнимое по размерам с небольшим заводом. Он имеет десятки тысяч вычислительных узлов и процессорных ядер. Кроме процессоров и электронных плат, суперкомпьютер обязательно оснащается системами бесперебойного питания и охлаждения. Все это соединяется километрами кабелей и нуждается в безумном количестве электричества. Например, российский суперкомпьютер «Ломоносов» занимает площадь в 252 кв. метров и потребляет 2,8 МВт энергии. Он обошелся государственной казне в сумму 1,9 млрд рублей.

Откуда пошло название

Нужно понимать, что данное обозначение условно. Не существует четких критериев определения, к каким именно компьютерам следует добавлять приставку «супер». Широкое распространение название получило в 60-е годы, хотя возникло оно гораздо раньше: в 1920 году New York World писала об электромеханическом суперкомпьютере IBM, изготовленном для Колумбийского университета.

Есть и другой важный момент, связанный со стремительным развитием электроники: самый мощный суперкомпьютер сегодня, через два-три года может превратиться в весьма заурядное вычислительное устройство. По производительности и быстродействию супер-ЭВМ 70-х годов уступает обычному современному смартфону.

12 самых быстрых суперкомпьютеров в мире - в 2020 годуАмериканский инженер и изобретатель Сеймур Крей. Он первым стал делать мощные ЭВМ, получившие название «суперкомпьютер»

В широкое употребление понятие «суперкомпьютер» вошло благодаря распространению вычислительных машин Сеймура Крея. Этот блестящий инженер-электронщик с середины 60-х по начало 90-х годов создал серию мощных ЭВМ для ряда научных, военных и промышленных проектов в Соединенных Штатах. Крей никогда не называл свои детища «супекомпьютерами», это название придумали журналисты.

В 80-е годы прошлого столетия на американском рынке появилось несколько компаний, разрабатывавших мощные вычислительные системы. И здесь приставка «супер» стала уже выполнять маркетинговые функции.

Американские инженеры Белл и Нельсон в шутку предложили считать суперкомпьютером любую ЭВМ, имеющую массу более одной тонны. Однако и этот критерий не слишком корректен, ибо далеко не все тяжелые вычислительные машины попадают под данное определение.

Существует и другая формулировка: считать суперкомпьютером устройство, сводящее любое вычисление к проблеме введения информации и получения ответа. Смысл заключается в том, что, благодаря быстродействию, супер-ЭВМ выдают решение практически мгновенно, время тратится только на процедуры ввода данных и получение ответа.

https://youtube.com/watch?v=tH5SVNUw-SI

Программное обеспечение суперкомпьютеров

Наиболее распространёнными программными средствами суперкомпьютеров, так же, как и параллельных или распределённых компьютерных систем, являются интерфейсы программирования приложений (API) на основе MPI и PVM, и решения на базе открытого программного обеспечения, наподобие Beowulf и openMosix, позволяющего создавать виртуальные суперкомпьютеры даже на базе обыкновенных рабочих станций и персональных компьютеров. Для быстрого подключения новых вычислительных узлов в состав узкоспециализированных кластеров применяются технологии наподобие ZeroConf. Примером может служить реализация рендеринга в программном обеспечении Shake, распространяемом компанией Apple. Для объединения ресурсов компьютеров, выполняющих программу Shake, достаточно разместить их в общем сегменте локальной вычислительной сети.

В настоящее время границы между суперкомпьютерным и общеупотребимым программным обеспечением сильно размыты и продолжают размываться ещё более вместе с проникновением технологий параллелизации и многоядерности в процессорные устройства персональных компьютеров и рабочих станций. Исключительно суперкомпьютерным программным обеспечением сегодня можно назвать лишь специализированные программные средства для управления и мониторинга конкретных типов компьютеров, а также уникальные программные среды, создаваемые в вычислительных центрах под «собственные», уникальные конфигурации суперкомпьютерных систем.

Бизнес и финансы

БанкиБогатство и благосостояниеКоррупция(Преступность)МаркетингМенеджментИнвестицииЦенные бумагиУправлениеОткрытые акционерные обществаПроектыДокументыЦенные бумаги — контрольЦенные бумаги — оценкиОблигацииДолгиВалютаНедвижимость(Аренда)ПрофессииРаботаТорговляУслугиФинансыСтрахованиеБюджетФинансовые услугиКредитыКомпанииГосударственные предприятияЭкономикаМакроэкономикаМикроэкономикаНалогиАудитМеталлургияНефтьСельское хозяйствоЭнергетикаАрхитектураИнтерьерПолы и перекрытияПроцесс строительстваСтроительные материалыТеплоизоляцияЭкстерьерОрганизация и управление производством