Uno studio condotto dall’Università della California ha rivelato che il modello di intelligenza artificiale GPT-4 di OpenAI può consumare fino a tre bottigliette d’acqua per generare appena 100 parole.
Questo elevato consumo idrico è dovuto al raffreddamento necessario dei data center che alimentano questa tecnologia, e l’acqua non è l’unica risorsa sotto pressione: anche il fabbisogno energetico per sostenere l’IA sta crescendo esponenzialmente.
Giganti tecnologici come Google e Microsoft utilizzano attualmente più elettricità di oltre 100 paesi per supportare lo sviluppo dei servizi legati all’intelligenza artificiale. Questo massiccio consumo energetico solleva molte preoccupazioni sulla sostenibilità ambientale e sulla capacità delle infrastrutture esistenti di soddisfare questa domanda crescente.
Figure influenti come Elon Musk hanno avvertito che entro il 2025 potremmo affrontare una carenza di energia elettrica necessaria a sostenere l’espansione dell’IA.
Oltre alle implicazioni ambientali, emergono anche sfide finanziarie di non poco conto. Si stima che OpenAI spenda fino a 700.000 dollari al giorno per mantenere operativa ChatGPT, il che sta sollevando molti dubbi tra gli investitori sulla redditività a lungo termine di queste tecnologie.
La carenza di chip specializzati, come quelli prodotti da NVIDIA, sta spingendo aziende come Microsoft e OpenAI a investire miliardi in progetti alternativi per ridurre la dipendenza dai fornitori esistenti e rendere più sostenibile l’intero ecosistema dell’IA.
Pensiamoci due volte quindi, la prossima volta, quando chiediamo a ChatGPT quante caccole produce l’essere umano in un giorno.
Lascia un commento