Volgens de New Yorker verbruikt de ChatGPT-chatbot van OpenAI meer dan een half miljoen kWh aan elektriciteit per dag om aan de 200 miljoen verzoeken van gebruikers te kunnen voldoen. Dat is 17.241 keer meer dan het gemiddelde Amerikaanse gezin (elk gezin verbruikt ongeveer 29 kWh/dag).

Dit is zorgwekkend en we moeten ons voorbereiden op de toekomst, waarin Generatieve AI (Artificiële Intelligentie) steeds populairder wordt en op grote schaal wordt toegepast.
Uit onderzoek van Alex de Vries, datawetenschapper bij De Nederlandsche Bank, blijkt dat nieuwe AI-apparaten in 2027 evenveel stroom zullen verbruiken als Nederland of landen als Zweden en Argentinië.
Als we ervan uitgaan dat Google ook Generative AI integreert in elke zoekopdracht, zou het elektriciteitsverbruik uitkomen op ongeveer 29 miljard kWh per jaar. Dat is meer dan het totale verbruik van landen als Kenia, Guatemala en Kroatië in dezelfde periode.
Momenteel is het lastig om het elektriciteitsverbruik van de AI-industrie in te schatten, omdat de grootschalige AI-modellen en Big Tech hun energieverbruik niet nauwkeurig weergeven.
Volgens Alex de Vries verbruikt de gehele AI-sector tegen 2027 tussen de 85 en 134 TWh (1 terawatt = 1 miljard kilowatt) per jaar, goed voor ongeveer de helft van het wereldwijde elektriciteitsverbruik.
Volgens een rapport van Consumer Energy Solutions zijn de grootste technologiebedrijven ter wereld de bedrijven die de meeste elektriciteit ter wereld verbruiken. Samsung verbruikt specifiek bijna 23 TWh, Google meer dan 12 TWh en Microsoft ongeveer 10 TWh voor de exploitatie van datacenters, netwerken en gebruikersapparaten.
In de toekomst zal de AI-industrie een grote impact hebben op de energiezekerheid en indirect negatieve gevolgen hebben voor het milieu als er geen specifiek plan of oplossing is.