Superkomputery mogą przyspieszyć rozwój sztucznej inteligencji, ale potrzebują nowoczesnych technologii. I nie ma innego sposobu: centra danych muszą być zasilane zieloną energią
Wśród zadań nowej Komisji Europejskiej są rozwój centrów sztucznej inteligencji (AI) oraz inwestycje w firmy specjalizujące się w tej technologii. Jest to niezbędne, aby Unia nie przegrała globalnego wyścigu technologicznego i wdrażała AI na dużą skalę, ulepszając procesy w przedsiębiorstwach i wpływając na rozwój gospodarki jako całości. Jednocześnie z perspektywy mocy obliczeniowej sztuczna inteligencja jest jednym z najbardziej wymagających obciążeń naszych czasów, a wraz z rozwojem AI zapotrzebowanie i koszty zużycia energii przez superkomputery będą wzrastać. To wyzwanie dla rozwoju centrów danych i sztucznej inteligencji.
Według International Energy Agency (IEA), w 2022 r. centra danych na całym świecie zużyły 460 terawatogodzin (TWh) energii elektrycznej. Stanowi to 2 proc. globalnego jej zużycia, a IEA przewiduje co najmniej dwukrotny wzrost (do 1000 TWh) tego wskaźnika do 2026 r. Powstaje zatem pytanie: co zrobić, aby ta gałąź rozwijała się dynamicznie przy jednoczesnym zapewnieniu efektywności energetycznej i kosztowej?
Przeczytaj też: Google przyspiesza inwestycje w zieloną energię
– Centra danych i zainstalowana w nich infrastruktura sprzętowa (m.in. serwery) będą musiały efektywnie obsługiwać obciążenia sztucznej inteligencji, a jednocześnie zapewnić wydajne chłodzenie. Specjalnie zaprojektowane superkomputery mogą przyspieszyć rozwój AI, ale potrzebują nowoczesnych technologii chłodzenia cieczą, które obecnie są kluczowe, jeśli chodzi o transformację energetyczną branży technologicznej. Ważne jest także, aby w miksie energetycznym coraz większy udział miały źródła odnawialne. Również tworzenie partnerstw z instytucjami naukowymi czy administracją publiczną pomoże przekuć wyzwania związane z energochłonnością w rozwiązania prowadzące do synergii i korzyści dla wszystkich – mówi Karolina Solecka, szefowa zespołu rozwiązań serwerowych w Hewlett Packard Enterprise Polska.
Obecnie rośnie liczba centrów danych i przetwarzanych w nich informacji. Tylko w Polsce w 2022 roku działało ok. 140 takich obiektów, z czego najwięcej znajduje się w Warszawie, gdzie całkowitą podaż szacuje się na 130 MW . W związku z rozwojem e-commerce, postępującą cyfryzacją i rosnącym zastosowaniem AI, wzrasta popyt na centra danych i superkomputery, a także usługi chmurowe i kolokacyjne związane z przekazywaniem do zewnętrznego centrum danych prywatnej infrastruktury serwerowej danej organizacji. Jednocześnie, w świetle unijnych dyrektyw prowadzących do osiągnięcia zeroemisyjności, kluczowy staje się zrównoważony rozwój tych technologii.
Superkomputery i wymagające zadania takie jak sztuczna inteligencja mają jedną zasadniczą wadę – zużywają ogromne ilości energii, nie tylko do zasilenia swojej własnej pracy, ale także do odprowadzenia ciepła generowanego w tym procesie. Na rynku dominują systemy oparte na elektrycznie napędzanych wentylatorach, które przyczyniają się do jeszcze większego całkowitego zużycia energii przez systemy tego typu. Rozwiązaniem zdecydowanie bardziej efektywnym energetycznie jest bezpośrednie chłodzenie cieczą. Polega ono na pompowaniu chłodziwa do serwera w celu pochłaniania ciepła emitowanego przez procesory czy akceleratory AI.
Najnowocześniejsze systemy tego typu funkcjonują bez jakichkolwiek dodatkowych wentylatorów. Ciepło przekazywane jest do systemu wymiany ciepła, który znajduje się poza budynkiem centrum danych, następnie można je wykorzystać w innych procesach technologicznych, a nawet do ogrzewania okolicznych budynków. Może wydawać się, że zmiana jednej metody chłodzenia na inną nie wywiera aż tak istotnego wpływu na środowisko, jednak dane mówią co innego.
– W HPE od dekad pracujemy nad tym, aby superkomputery obsługujące intensywne obliczenia o wysokiej wydajności były energooszczędne, m.in. dzięki innowacjom w systemach chłodzenia – komentuje Karolina Solecka. – Dostarczamy specjalnie zaprojektowane superkomputery, aby skutecznie trenować sztuczną inteligencję przy minimalnym zużyciu energii. Według naszych badań system bezpośredniego chłodzenia cieczą w superkomputerze dedykowanym AI potrzebuje o 87 proc. mniej energii niż system chłodzenia oparty na wentylatorach – dodaje ekspertka z Hewlett Packard Enterprise.
Im potężniejsze komputery, tym więcej energii potrzebują. Dlatego kluczowy staje się dostęp do dużej ilości taniej i niskoemisyjnej energii. Na znaczeniu zyskuje też dywersyfikacja źródeł energii, która może nastąpić dzięki intensyfikacji rozwoju OZE i wprowadzeniu energetyki jądrowej. Może to pomóc technologiom w dalszym rozwoju, a jednocześnie ustabilizować cenę energii, która jest zasadniczym kosztem w utrzymaniu centrów danych i systemów AI.
Przeczytaj też: Apple zamyka projekt samochodu elektrycznego
Jednak centra danych mogą też wspierać zrównoważony rozwój. Ciepło przechwycone z serwerów może być wykorzystywane do ogrzewania innych budynków lub obiektów. Przykładem współpracy między branżą technologiczną a administracją jest zastosowanie tego rozwiązania w Narodowym Laboratorium Energii Odnawialnej (NREL) Departamentu Energii Stanów Zjednoczonych. Obecnie laboratorium to wykorzystuje ponownie ok. 90 proc. cieczy użytej do chłodzenia superkomputera HPE Cray. Jest ona wykorzystywana jako główne źródło ciepła dla okolicznej infrastruktury – biur oraz ośrodka badawczego.
Nieoczywiste możliwości systemu chłodzenia superkomputera w Cyfronecie AGH
Na polskim rynku przykładem zastosowania superkomputera zaprojektowanego w duchu zrównoważonego rozwoju jest Helios, który firma HPE dostarczyła dla ACK Cyfronet AGH. Helios posiada m. in. system bezpośredniego chłodzenia cieczą, co zwiększa jego efektywność energetyczną, obniża koszty eksploatacji, a także, dzięki odzyskowi ciepła, umożliwia wykorzystanie ciepła generowanego przez superkomputer do ogrzewania okolicznych obiektów. Między innymi dzięki tej technologii system Helios został uznany trzecim najbardziej efektywnym energetycznie superkomputerem na świecie.