Krótki post na X z 16 kwietnia wywołał dużą reakcję: użytkownik zapytał, ile pieniędzy traci OpenAI, ponieważ ludzie dodają zwroty grzecznościowe, takie jak "proszę" i "dziękuję" w ChatGPT. Zaskakująca odpowiedź przyszła prosto od CEO Sama Altmana: "Dziesiątki milionów dolarów" Każdy monit, nieważne jak krótki, zużywa znaczną ilość energii.
Według analizy Washington Postwygenerowanie pojedynczej 100-słownej wiadomości e-mail ze sztuczną inteligencją zużywa około 0,14 kWh energii elektrycznej. Proszę to robić raz w tygodniu, a zużyje Pan około 7,5 kWh rocznie, czyli mniej więcej tyle samo, co nowoczesna lodówka pracująca przez dwa tygodnie. Pomnóżmy to przez miliony codziennych podpowiedzi na całym świecie, a stanie się jasne, dlaczego cyfrowa uprzejmość nie jest już tylko formalnością. Analitycy energetyczni szacują że systemy sztucznej inteligencji odpowiadają obecnie za około 2% globalnego zużycia energii elektrycznej, czyli więcej niż wiele sektorów przemysłowych.
Reddit między humorem a cynizmem
Na subreddicie r/nottheonionznanym z dziwacznych, ale prawdziwych nagłówków, wiadomość o "uprzejmym zużyciu energii elektrycznej" wywołała falę ironicznych reakcji. Jeden z użytkowników zażartował: "Mama zawsze mówiła, że bycie miłym nic nie kosztuje - ale okazuje się, że się myliła" Inni zajęli bardziej krytyczne stanowisko, ostrzegając, że takie skupienie uwagi może odwrócić uwagę od większych kwestii energetycznych, takich jak emisje przemysłowe lub luksusowy styl życia. Krytyka: zamiast debatować nad kosztami mówienia "proszę" i "dziękuję", powinniśmy rozmawiać o centrach danych, podgrzewanych basenach i śladzie węglowym bogatych krajów.