L’amministratore delegato di OpenAI, Sam Altman, ha dichiarato che una singola query di ChatGPT consuma circa 0,34 wattora di elettricità, che è “all’incirca quanto un forno utilizzerebbe in poco più di un secondo”.
Cosa è successo
Altman, in un post pubblicato martedì scorso, ha anche menzionato che ogni query di ChatGPT consuma “circa 0,000085 galloni di acqua“, il che equivale a circa un quindicesimo di cucchiaino.
Altman sostiene che “il costo dell’intelligenza dovrebbe alla fine convergere a quasi il costo dell’elettricità”, posizionando il chatbot come relativamente frugale, anche mentre le associazioni ambientaliste esaminano attentamente il “conto” climatico nascosto dell’AI.
wrote a new post, the gentle singularity.
realized it may be the last one like this i write with no AI help at all.
(proud to have written “From a relativistic perspective, the singularity happens bit by bit, and the merge happens slowly” the old-fashioned way)
— Sam Altman (@sama) June 10, 2025
OpenAI non ha condiviso pubblicamente i dettagli della propria metodologia, ma la divulgazione arriva mentre i ricercatori avvertono che la domanda di energia dei data center potrebbe superare quella del Bitcoin Mining entro il prossimo anno. Uno studio della Vrije Universiteit Amsterdam prevede che l’AI potrebbe presto assorbire quasi la metà dell’elettricità che fluisce nei server farm globali.
L’uso dell’acqua complica l’equazione. Un’indagine del Washington Post ha rilevato che la stesura di un’e-mail di 100 parole con GPT-4 richiedeva “poco più di una bottiglia” d’acqua, con un consumo che variava ampiamente a seconda della posizione del data center. I ricercatori del MIT hanno allo stesso modo avvertito a gennaio che i modelli generativi stanno aumentando sia l’impronta energetica che quella idrica, mentre le aziende corrono per espandersi.
Perché è importante
Il Dipartimento dell’Energia prevede che i data center statunitensi potrebbero consumare fino al 12% dell’elettricità del Paese entro il 2028, una quota che potrebbe aumentare con l’accelerazione dell’adozione dell’AI.
L’appello di Altman all’efficienza segue gli impegni aziendali per frenare la domanda di risorse, eppure Yale’s Environment 360 rileva che le strutture hyperscale inghiottono ancora milioni di galloni all’anno. Planet Detroit aggiunge che i sistemi generativi possono utilizzare 33 volte più energia rispetto ai software convenzionali per la stessa attività.
Che i calcoli del “cucchiaino” reggano o meno, Altman insiste che algoritmi più intelligenti e la fabbricazione di chip automatizzata continueranno a ridurre il prezzo e il costo delle risorse dell’”intelligenza”.
Per ulteriori aggiornamenti su questo argomento, aggiungi Benzinga Italia ai tuoi preferiti oppure seguici sui nostri canali social: X e Facebook.
Ricevi informazioni esclusive sui movimenti di mercato 30 minuti prima degli altri trader
La prova gratuita di 14 giorni di Benzinga Pro, disponibile solo in inglese, ti permette di accedere ad informazioni esclusive per poter ricevere segnali di trading utilizzabili prima di milioni di altri trader. CLICCA QUI per iniziare la prova gratuita.
Foto: Shutterstock