Wraz z cyfryzacją gospodarki zwiększa się zapotrzebowanie na analizowanie wielkich zbiorów danych w czasie rzeczywistym. Według International Data Corporation w 2025 r. ilość danych wytwarzanych na świecie wzrośnie do 175 zettabajtów (1021), czyli o 530 proc. w stosunku do roku 2018 r. W ciągu najbliższych trzech lat ludność w skali świata wygeneruje więcej danych niż w ciągu ostatnich 30 lat, a w ciągu następnych pięciu lat – trzy razy więcej niż w poprzednich pięciu latach. Zmieni się też sposób przechowywania i przetwarzania danych.

Obecnie analiza danych odbywa się w 80 proc. w scentralizowanych obiektach obliczeniowych i tylko w 20 proc. w inteligentnych maszynach połączonych z internetem, takich jak samochody, sprzęt gospodarstwa domowego czy roboty produkcyjne, oraz w urządzeniach brzegowych (tzw. edge computing, czyli przetwarzanie na brzegu sieci, wiąże się z rozwojem aplikacji Internetu Rzeczy i umożliwia zarządzanie danymi lokalnie, w momencie ich generowania; tym samym eliminuje problemy związane z opóźnieniami i nieefektywnością podczas przesyłania danych między milionami połączonych urządzeń a chmurą lub centrum danych). Do 2025 r. proporcje te prawdopodobnie ulegną odwróceniu. To pokazuje, jak ogromny potencjał mają obliczenia o wysokiej wydajności (ang. high performance computing – HPC).

Nowy typ infrastruktury krytycznej

Komputery o wysokiej wydajności (HPC) są niezastąpionym narzędziem do modelowania i symulacji w takich dziedzinach, jak biologia molekularna, fizyka jądrowa, astrofizyka, chemia kwantowa, medycyna, inżynieria materiałowa, meteorologia, klimatologia, sejsmologia, kryptologia, by wymienić tylko te najważniejsze. Powszechnie stosowaną jednostką mocy obliczeniowej superkomputerów jest FLOPS, czyli liczba operacji zmiennoprzecinkowych na sekundę (ang. floating point operations per second). Pracują one z wydajnością ponad biliarda (milion miliardów) operacji na sekundę (1015 – petaskala), a te z najwyższej półki przekraczają 1017 operacji na sekundę. Dla porównania: laptop lub komputer stacjonarny z procesorem o prędkości (częstotliwości taktowania) 3 GHz może wykonać około 3 miliardów obliczeń na sekundę. Wyczekiwanym kamieniem milowym będzie osiągnięcie eksaskali, czyli 1018, a od tego dzielą nas nie lata, a miesiące. „Bestie” o wydajności liczonej w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę, powinny pojawić się na przełomie 2021 i 2022 r.

Reklama
Superkomputery o wydajności liczonej w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę, powinny pojawić się na przełomie 2021 i 2022 r.

Moc obliczeniowa superkomputerów przejawia się w ich monstrualnych rozmiarach. Wysokowydajne obliczenia zapewnia klastrowanie setek tysięcy, a nawet milionów wielordzeniowych serwerów (tzw. węzłów) połączonych w sieć. Węzły, upakowane w gigantycznych szafach, działają w trybie równoległym, co umożliwia wykonywanie masy zadań jednocześnie i zwiększa wydajność obliczeń. Klastry HPC mają tę zaletę, że awaria jednego węzła nie powoduje zatrzymania pracy całego systemu, a ponadto dają się łatwo skalować, czyli rozbudowywać poprzez dokładanie kolejnych węzłów, bez konieczności wymiany na nowsze modele.

Infrastruktura HPC łączy algorytmy ściśle matematyczne z algorytmami sztucznej inteligencji, wykorzystywanymi w analityce Big Data. Z jednej strony, systemy sztucznej inteligencji są zaprojektowane w sposób umożliwiający przetwarzanie olbrzymiej ilości danych, więc siłą rzeczy muszą działać na sprzęcie, który potrafi wykonywać biliony obliczeń na sekundę. Z drugiej strony, dane pochodzą z wielu różnych źródeł, są niejednorodne i rozproszone geograficznie, więc do ich przetwarzania nie wystarczy moc obliczeniowa, potrzebna jest sztuczna inteligencja. Tu przecinają się drogi HPC, Big Data i AI.

Chmura rewolucjonizuje dostęp do HPC

Digitalizacja stała się motorem innowacji, konkurencyjności i wzrostu. Gospodarka cyfrowa ma wiele przejawów, ale systemowo rzecz ujmując, można ją przyrównać do organizmu, którego krwiobieg tworzą wielkie zbiory danych, a sercem są moce obliczeniowe, zdolne przetwarzać te wolumeny informacji liczbowych w czasie rzeczywistym i ze 100-proc. precyzją. Wydajność posiadanych zasobów obliczeniowych wpływa na tempo przebiegu prac nad nowym produktem, a tym samym na czas jego wprowadzenia na rynek. Jednak koszty – od zakupu (sprzęt, oprogramowanie), przez utrzymanie (energia elektryczna, aktualizacje, modernizacja, serwis, szkolenia), aż po złomowanie (utylizacja, recykling) – długo były barierą nie do pokonania dla większości firm. Toteż do niedawna na infrastrukturę HPC mogły sobie pozwolić tylko ośrodki naukowe. Przełom przyniosła chmura obliczeniowa, dzięki której firmy mają możliwość korzystać z oprogramowania i mocy obliczeniowych, nie angażując środków w ich zakup i instalację. Płacąc za udostępnienie HPC w chmurze zgodnie z rzeczywistym użyciem, firmy mają możliwość przetestowania obliczeń wysoko wydajnościowych i oceny, czy docelowo opłaca im się pozostanie w modelu SaaS, czy też stworzenie wewnętrznej infrastruktury HPC. Jakkolwiek usługi w chmurze mają swoje zalety, to nie zawsze są rozwiązaniem pierwszego wyboru dla biznesu, któremu zależy na bezpieczeństwie i prywatności. Przechowywanie danych to kwestia newralgiczna, szczególnie w dobie RODO.

Europa odstaje od światowej czołówki rynku HPC

Europa potrzebuje światowej klasy zintegrowanej infrastruktury HPC z eksaskalową wydajnością obliczeniową. Wykorzystanie superkomputerów do celów badawczo-rozwojowych, przemysłowych i komercyjnych rośnie i będzie rosło. Zdigitalizowane łańcuchy wartości i modele biznesowe będą generować przyrost Big Data, a ten z kolei będzie pobudzał popyt na infrastrukturę HPC. Potencjał jest ogromny, a wyzwania niemniejsze. Podczas gdy ⅓ globalnego zapotrzebowania na moce HPC pochodzi z Europy, kontynentalne ośrodki HPC zaspokajają zaledwie 5 proc. W rezultacie europejscy innowatorzy w coraz większym stopniu korzystają z superkomputerów w Azji i Ameryce. To stwarza poważne zagrożenia w zakresie ochrony danych poufnych i cyberbezpieczeństwa oraz otwiera furtkę do wycieku innowacji z Europy. Istnieje bowiem ryzyko, że dane generowane przez ośrodki naukowe, przemysł i MŚP będą eksportowane w celach analitycznych z braku zdolności obliczeniowych na kontynencie.

Europejscy innowatorzy w coraz większym stopniu korzystają z superkomputerów w Azji i Ameryce. To stwarza poważne zagrożenia w zakresie ochrony danych.

Według szacunków Europejskiego Banku Inwestycyjnego Europa wyraźnie odstaje od USA, Chin i Japonii, z luką w zakresie nakładów na HPC wynoszącą 500-750 mln euro rocznie. Aby ją zlikwidować, potrzebne są potężne inwestycje w infrastrukturę. Tyle że infrastruktura akademickich dostawców HPC jest finansowana z publicznych grantów badawczych, a prywatni i zorientowani komercyjnie dostawcy HPC należą do rzadkości. Natomiast silna konkurencja ze strony firm amerykańskich, takich jak Amazon Web Services, Google i Microsoft, zostawia niewiele miejsca na ekspansję europejskich graczy oferujących moce HPC na zasadach komercyjnych, tym bardziej że praktycznie ich nie ma. Ci, którzy istnieją, koncentrują się na aplikacjach do symulacji i modelowania w wysoce wyspecjalizowanych segmentach niszowych.

…ale nie składa broni

Żaden europejski kraj nie jest jednak w stanie samodzielnie stworzyć eksaskalowego ekosystemu HPC w krótkim horyzoncie czasowym. W celu przyspieszenia postępu w tym zakresie w 2018 r. powstało Europejskie Wspólne Przedsięwzięcie na rzecz Wysokowydajnych Obliczeń Komputerowych (EuroHPC). W ramach współpracy, której patronuje UE, wyłoniono 8 lokalizacji hubów superkomputerowych: 3 superkomputery przedeksaskalowe, zdolne do wykonywania ponad 150 PF, będą zlokalizowane w Barcelonie (Hiszpania), Bolonii (Włochy), Kajaani (Finlandia), natomiast 5 maszyn petaskalowych, zdolnych do wykonania co najmniej 4 petaflopsów (PF), powstanie w Guimarães (Portugalia), Ostrawie (Czechy), Bissen (Luksemburg), Sofii (Bułgaria) i Mariborze (Słowenia). Najpotężniejszym z planowanych systemów będzie fiński LUMI o szczytowej mocy 550 PF. Dla porównania: włoski Leonardo i hiszpański MareNostrum5 będą miały po 200 PF, luksemburski Meluxina – 18 PF, czeski (nazwa nieznana) – 15,2 PF, portugalski Deucalion – 10 PF, słoweński Vega – 6,8 PF, bułgarski PetaSC – 4,44 PF.

Polska w konsorcjum LUMI

Polska dołączyła do konsorcjum LUMI (obok Belgii, Czech, Danii, Norwegii, Szwecji i Szwajcarii), którego liderem jest Finlandia. Szacuje się, że całkowity koszt projektu do 2026 r. wyniesie około 200 mln euro, z czego 140 mln zostanie przeznaczone na sam superkomputer. Sfinansują go wspólnie: Komisja Europejska (100 mln euro), Finlandia (50 mln euro) i pozostałe 9 krajów konsorcjum LUMI (50 mln euro). Kontrakt na budowę superkomputera LUMI zdobył Hewlett-Packard, odpowiedzialny także za implementację w centrum EURO IT4I w Ostrawie. W ramach offsetu amerykański dostawca będzie produkować chłodzone cieczą superkomputery Cray EX i Apollo w swojej fabryce w Kutnej Horze w Czechach. Założy też w Europie centrum doskonałości, świadczące usługi badawczo-rozwojowe w dążeniu do osiągnięcia eksaskali. Konstrukcję superkomputerów: Leonardo, Meluxina, Vega i PetaSC powierzono francuskiej firmie Atos, MareNostrum5 – chińskiemu Lenovo, natomiast Deucaliona – japońskiemu Fujitsu.

W konsorcjum LUMI Polskę reprezentuje Akademickie Centrum Komputerowe – Cyfronet na AGH w Krakowie, a to dlatego, że w momencie jego powołania dysponowało najszybszym krajowym superkomputerem (Prometheus, 2,65 PF). W listopadzie 2020 r. Cyfronet został jednak zdeklasowany przez Poznańskie Centrum Superkomputerowo-Sieciowe, które może pochwalić się superkomputerem Altair (5,9 PF i 85. pozycja w rankingu TOP500). Wzmocnienie poznańskiego ośrodka stanowi pierwszy etap projektu rozbudowy systemów HPC w Polsce – PRACE-LAB, współfinansowanego ze środków Europejskiego Funduszu Rozwoju Regionalnego. W kolejnych krokach rozbudowane zostaną komputery dużych mocy, tzw. KDM-y, w Gdańsku (CI TASK), Wrocławiu (WCSS), Krakowie (ACK-Cyfronet, AGH) oraz centra danych w Częstochowie (Politechnika Częstochowska), Kielcach (Politechnika Świętokrzyska), Białymstoku (Politechnika Białostocka) oraz Łodzi (Politechnika Łódzka).

MŚP w tyle za naukowcami i korporacjami

Moc superkomputerów, sprzężona ze sztuczną inteligencją i Big Data, otwiera ocean możliwości nie tylko przed dyscyplinami naukowymi, ale przede wszystkim przed małymi i średnimi przedsiębiorstwami, które stanowią trzon każdej gospodarki. Europejskie ośrodki badawcze wyposażone w zaawansowane systemy HPC niemalże monopolizują pracę na superkomputerach. Na drugim biegunie są korporacje, które doceniając strategiczne znaczenie superkomputerów, a także z obawy o bezpieczeństwo danych w publicznych centrach, zainwestowały we własną infrastrukturę HPC. Tymczasem MŚP napotykają barierę nie do przeskoczenia, która praktycznie wyłącza je z rynku obliczeń wielkiej skali. Upowszechnienie się rozwiązań chmurowych w modelu SaaS wyrwało je z totalnego wykluczenia w tym względzie, ale tylko teoretycznie. Wyzwaniem pozostaje popularyzacja dostępu do usług HPC wśród MŚP, zwłaszcza w zakresie projektów badawczo-rozwojowych, prowadzących w perspektywie do wzrostu produktywności. Taki też jest jeden z priorytetów przedsięwzięcia EuroHPC, które w ciągu kolejnych 13 lat (do 2033 r.) będzie dysponowało budżetem 8 mld euro.

Kto zainauguruje eksaskalę?

Na platformach eksaskalowych można będzie uruchamiać aplikacje, do obsługi których nie wystarcza potencjał petaskali, na przykład zaawansowane modelowanie 3D i symulacje. Rozwój obliczeń eksaskalowych otwiera całą gamę nowych technologii, które będą miały wpływ na poszerzenie rynku ICT. Kraje, którym uda się wejść w eksaskalę jako pierwszym, zyskają komparatywną przewagę pod względem definiowania kluczowych standardów technologicznych oraz opracowywania różnorodnych aplikacji i usług. Nic dziwnego, że między Chinami, Japonią, Stanami Zjednoczonymi i Unią Europejską trwa zacięty wyścig o to, kto zainauguruje eksaskalę. Aktualnie (tu nie ma nic stałego!) najszybszym superkomputerem na świecie jest japoński Fugaku (Fujitsu), którego teoretyczna moc obliczeniowa wynosi blisko 540 PF. W 2020 r. zdeklasował on amerykański Summit (200 PF, IBM). Z kolei Chiny, które w 2001 r. nie miały ani jednego superkomputera, są obecnie na czele peletonu zarówno pod względem wydajności, jak i liczby superkomputerów. Na referencyjnej liście TOP500 plasuje się aż 214 chińskich jednostek, z których najszybszy jest Sunway TaihuLight (125 PF). Stany Zjednoczone zajmują drugie miejsce (113 jednostek), natomiast europejskie superkomputery, które trafiły do rankingu (15 krajów, wliczając Rosję), zajmują łącznie 101 lokat. Najszybszym europejskim superkomputerem (7. miejsce) jest obecnie JUWELS w Jülich Supercomputing Centre (JSC) w Niemczech. W pierwszej dziesiątce, na ósmej pozycji, znalazł się również włoski HPC5. Jeśli chodzi o liczbę superkomputerów sklasyfikowanych w TOP500, w Europie prym wiodą: Niemcy (19 jednostek), Francja (18 jednostek) i Holandia (15 jednostek). Uderzający jest mizerny potencjał HPC Rosji (w porównaniu np. z jądrowym): zaledwie dwie jednostki w rankingu TOP500 na miejscach 40. i 156.

Grażyna Śleszyńska
ikona lupy />