Scrivi un articolo chiaro, ben strutturato e leggibile. Mantieni i tag HTML.
La domanda di energia dell’intelligenza artificiale raddoppia ogni 100 giorni man mano che questi strumenti diventano parte integrante della vita di tutti i giorni. E’ il calcolo fatto dall’Unesco in uno studio presentato all’AI Global Summit, in cui l’organizzazione delle Nazioni Unite invita a porre domande più brevi a questi sistemi per ridurne l’impronta energetica.
“La crescita esponenziale della potenza computazionale necessaria per eseguire questi modelli – avverte lo studio – sta esercitando una pressione crescente sui sistemi energetici globali sulle risorse idriche e sui minerali critici sollevando preoccupazioni sulla sostenibilità ambientale, sull’accesso equo e sulla concorrenza per risorse limitate”.
Una combinazione di richieste più brevi e l’utilizzo di modelli più piccoli e più specifici potrebbe ridurre il consumo di energia dell’intelligenza artificiale fino al 90% senza sacrificare le prestazioni, afferma l’Unesco. Ad oggi, infatti, molti modelli di intelligenza artificiale come ChatGpt sono generici e progettati per rispondere ad un’ampia varietà di argomenti, il che significa che devono vagliare un immenso volume di informazioni per formulare e valutare le risposte.
L’analisi sottolinea che sarebbe utile per la riduzione del consumo di energia anche un taglio dei suggerimenti ai chatbot da 300 a 150 parole. Sam Altman, il Ceo di OpenAI, ha recentemente rivelato che ogni richiesta inviata a ChatGpt consuma in media 0,34 Wh di elettricità, ovvero tra 10 e 70 volte una ricerca su Google. Circa un miliardo di richieste al giorno equivalgono a 310 GWh l’anno, equivalenti al consumo annuo di elettricità di tre milioni di persone in Etiopia.
FP