ChatGpt, la richiesta di risorse naturali è fuori controllo

Una bottiglia d’acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l’ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell’Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.

Un data center ONATHAN NACKSTRAND/AFP via Getty Images - Fonte: Wired

Proprio per questo, all’interno dei data center che li ospitano vengono utilizzati sistemi ad acqua per raffreddare le apparecchiature e mantenerle in funzione: secondo Shaolei Ren, professore associato, l’acqua trasporta il calore generato dai server in torri di raffreddamento, così da aiutarlo a uscire dall’edificio. In quelle aeree in cui le risorse idriche sono relativamente scarse, invece, si predilige l’uso dell’elettricità, al fine di raffreddare le strutture con sistemi simili a grandi condizionatori. Questo significa che la quantità di acqua ed elettricità richieste per l’elaborazione di una singola risposta dei chatbot AI dipende dall’ubicazione del data center, oltre che dalla vicinanza dell’utente alla struttura.

Il consumo di acqua ed elettricità aumenta

In Texas, per esempio, ChatGpt consuma appena 235 millilitri di acqua per generare un’email di 100 parole. Mentre, quando un utente fa la stessa richiesta al chatbot da Washington, vengono consumati ben 1408 millilitri - quasi un litro e mezzo - per ogni email. Quanto al consumo di energia elettrica, secondo il Washington Post, per un’email di circa 100 parole ChatGpt richiede la stessa quantità necessaria a far funzionare più di una dozzina di lampadine a led per circa un’ora. E se solo un decimo degli americani usasse ChatGpt per scrivere un’email una volta a settimana per un anno, l’il processo consumerebbe la stessa quantità di energia che ogni singola famiglia di Washington consuma in 20 giorni. Una cifra notevole che non passa inosservata.

A peggiorare la situazione, poi, c’è l’ubicazione delle strutture che ospitano i server. Se un data center si trova in una regione calda e gestisce il raffreddamento tramite sistemi di condizionamento, è evidente che ci voglia molta elettricità per mantenere i server a una temperatura bassa. Allo stesso modo, se le strutture utilizzano il raffreddamento ad acqua e si trovano in aree soggette a siccità, rischiano di impoverire la zona di una preziosa risorsa naturale. Secondo alcuni documenti condivisi dal quotidiano Oregonian, per esempio, i data center di Google a The Dalles, a circa 80 miglia a est di Portland, consumano quasi un quarto di tutta l’acqua disponibile nella città. E Meta, invece, ha avuto bisogno di 22 milioni di litri d’acqua per addestrare il suo ultimo modello Llama 3.1. E la situazione non farà altro che peggiorare, di pari passo con l’evoluzione dell’intelligenza artificiale e dei chatbot.

Fonte: Wired

  • Condividi:

Altri articoli di Redazione TheLiquidJournal

Facebook ha dovuto pubblicare una rettifica sulla gratuità dei suoi servizi

Gli utenti italiani in questi giorni stanno visualizzando un nuovo banner: è l’ultimo capitolo di uno scontro tra Menlo Park e l’Agcm . Per evitare altre multe, Facebook ha deciso di informare a dovere gli utenti sul trattamento dei loro dati

Dal record di Satispay all’asse Nexi-Sia: il cantiere del fintech italiano è in gran fermento

La finanza innovativa si consolida. Crescono le startup. Sta nascendo un polo internazionale dei pagamenti digitali. E anche operatori come Enel sperimentano

Ps5, il design divide i fan: piace o non piace?

In rete è già un tripudio di meme irresistibili che prendono in giro o esaltano l’aspetto della nuova console Sony