Wykorzystanie sztucznej inteligencji, zwłaszcza modeli generatywnych takich jak ChatGPT, wywołuje debatę na temat jej wpływu na środowisko. Podczas gdy niektórzy uważają, że SI zużywa alarmującą ilość energii, inni sugerują, że ślad ekologiczny może być bardziej umiarkowany, niż się wydaje. Ten artykuł bada implikacje energetyczne sztucznej inteligencji i często mylące porównania, które krążą.
3 informacje, których nie można przegapić
- Szacunkowe zużycie energii przez przeciętne zapytanie do ChatGPT wynosi 0,34 Wh, w przeciwieństwie do przesadzonych twierdzeń.
- Generowanie obrazów przez SI zużywa znacznie więcej energii niż generowanie tekstu.
- Wpływ na środowisko na skalę przemysłową pozostaje niepokojący mimo niskiego indywidualnego śladu.
Rzeczywiste zużycie energii przez ChatGPT
Zużycie energii przez ChatGPT było przesadnie porównywane do zużycia żarówki włączonej przez kilka godzin, a nawet cały dzień. W rzeczywistości przeciętne zapytanie zużywa około 0,34 Wh, co odpowiada kilku minutom oświetlenia za pomocą wydajnej żarówki LED. Te liczby pokazują, że indywidualny wpływ jest minimalny.
Zamieszanie często wynika z niedokładnych porównań. Modele zużycia różnią się w zależności od złożoności zapytań i rodzaju generowanej treści. W przypadku tekstów zużycie energii jest znacznie niższe niż w przypadku generowania obrazów, które wymagają intensywnego przetwarzania przez karty graficzne.
Porównanie z innymi SI i technologiami
Dane dostarczone przez Google dla jego chatbota Gemini wskazują na zużycie 0,24 Wh na zapytanie tekstowe, co jest zgodne z ocenami ChatGPT. To podkreśla, że choć SI może wydawać się energochłonna, postępy technologiczne i optymalizacje zmniejszyły jej ślad energetyczny.
Ponadto badania prowadzone przez niezależne instytucje, takie jak Epoch AI, potwierdzają, że wpływ energetyczny zapytań tekstowych jest znacznie niższy niż często się podaje. Obecne modele SI są projektowane tak, aby były bardziej wydajne, zarówno pod względem obliczeń, jak i zużycia energii.
Generowanie obrazów i wideo: wyzwanie energetyczne
Generowanie obrazów przez sztuczną inteligencję zużywa średnio 60 razy więcej energii niż generowanie tekstu. Ta różnica wynika z złożonego procesu szumienia i odszumiania niezbędnego do tworzenia wizualizacji. Jednak nawet w tym przypadku początkowe szacunki dotyczące zużycia równoważnego jednemu dniowi oświetlenia są przesadzone.
Generowanie wideo, choć mniej rozwinięte, również stawia pytania dotyczące energii. Wstępne oceny sugerują, że jego zużycie może być wysokie, ale wciąż brakuje dokładnych danych, aby wyciągnąć ostateczne wnioski.
Wpływ na skalę indywidualną i przemysłową
Hannah Ritchie, badaczka specjalizująca się w środowisku, szacuje, że indywidualne wykorzystanie ChatGPT ma znikomy wpływ energetyczny. Jednak na skalę przemysłową, gdzie wykorzystanie SI się mnoży, wpływ staje się bardziej niepokojący.
Centra danych, niezbędne do funkcjonowania SI, stanowią znaczną część globalnego zużycia energii. Zdolność sieci elektrycznych do absorbowania tego rosnącego obciążenia jest jednym z wyzwań na przyszłość, zwłaszcza w miarę rozwoju aplikacji SI.
Kontekst: OpenAI i ewolucja ChatGPT
OpenAI, firma stojąca za ChatGPT, powstała w 2015 roku z misją promowania i rozwijania sztucznej inteligencji korzystnej dla ludzkości. Od czasu uruchomienia ChatGPT model przeszedł kilka iteracji, z zauważalnymi poprawkami w zakresie wydajności i efektywności.
Model GPT-4, działający w 2023 roku, został uzupełniony o 19 innych wersji. Te ewolucje pozwoliły zmniejszyć ślad energetyczny zapytań, jednocześnie zwiększając zdolność modelu do odpowiadania na złożone zapytania. OpenAI nadal wprowadza innowacje, starając się zrównoważyć postępy technologiczne z troską o środowisko.