• Ostatnia modyfikacja artykułu:12 miesięcy temu

ChatGPT to bez wątpienia niesamowite narzędzie. Jak się okazuje, jest przy okazji piekielnie drogie w utrzymaniu!

OpenAI od dawna tworzyło dość niesamowite algorytmy sztucznej inteligencji. Są przecież chociażby autorami DALL-E będącego w stanie generować bardzo realistyczne obrazy. To jednak ChatGPT okazał się gigantycznym przełomem. AI jest w stanie odpowiedzieć na nasze pytania, napisać wiersz, podać instrukcję, rozwiązać zadanie matematyczne czy też napisać kod komputerowy. Nic zatem dziwnego, że zainteresowanie taką usługą jest po prostu olbrzymie.

Jak się jednak okazuje, zainteresowanie przekłada się na kolosalne wręcz koszty. Do obsługi modelu językowego jakim jest ChatGPT niezbędne są układy graficzne od Nvidii. Cały system składa się szacunkowo z około 3617 serwerów HGX A100 wyposażonych w 28936 procesorów graficznych. Są to niezwykle energochłonne układy pożerające mnóstwo energii elektrycznej.

Sprawdź: Czy sztuczna inteligencja zabierze ci pracę? Które zawody są zagrożone?

Wszystko to sprawia, że dzienne utrzymanie ChatGPT kosztuje około 700 tysięcy dolarów! SemiAnalysis szacuje, że jedno zapytanie kosztuje około 0,36 dolara, czyli 1,5 zł. Na tym etapie jest już jasne, że projekt będzie miał problemy z zarabianiem na siebie. Przychody z wersji plus nie są w stanie pokryć takich kosztów.

Microsoft, będący jeden z głównych inwestorów OpenAI, jest jednak na dobrej drodze do znalezienia rozwiązania tego problemu. Firma pracuje nad stworzeniem własnego układu AI, znanego jako Athena, który miałby zastąpić procesory graficzne NVIDIA i znacznie zredukować koszty działania ChatGPT. Pozostaje tylko pytanie jak szybko uda im się to zrobić, stworzenie własnego GPU nie jest prostym zadaniem.

Zobacz też:
OpenAI zapłaci nam za korzystanie z ChatGPT
Midjourney – twórcy AI zostali pozwani przez artystów
Papież Franciszek w designerskiej kurtce? Nie, to tylko sztuczna inteligencja

Oceń ten post