I sistemi di Intelligenza Artificiale offrono opportunità ed innovazione nella gestione delle risorse naturali e nella lotta al cambiamento climatico, aiutando per esempio a ottimizzare il consumo energetico e a prevedere gli impatti ambientali conseguenti a scelte politiche per la limitazione delle emissioni di gas serra.
Si celebra, quindi, il matrimonio auspicato da Floridi, del verde con il blu, ovvero il compimento di una rivoluzione basata sul connubio tra ambiente -naturale, economico, sociale- e tecnologia. Ritroviamo questa direzione anche nelle politiche europee, dove si persegue una“twin societal challenge of digital transformation and green transition”.
Se da un lato, però, soluzioni basate su IA offrono tecnologie attuabili ed efficaci, dall’altro non possiamo ignorare il costo e il rischio che rappresentano, a causa della quantità di energia necessaria per processare la mole di dati richiesta da questo tipo di modelli.
Come ricercatori e ricercatrici, abbiamo la responsabilità di costruire sistemi di IA “eticamente accettabili”: tra gli altri, il principio della sostenibilità ambientale dovrebbe guidare lo sviluppo degli strumenti che progettiamo fin dalle prime fasi implementative. Accade spesso, però, che l’attenzione ai costi computazionali venga accantonata in favore di miglioramenti minimi, trascurabili, nella performance dei modelli. Condurre la valutazione unicamente attraverso metriche generali come l’accuratezza non restituisce, e quindi ignora, la complessità delle “invisibili” spese energetiche: sarà necessario coniare nuovi standard per misurare il consumo delle risorse. Prima di perseguire alla cieca un nuovo task, senza interrogarci sulla necessità o meno di automatizzarlo, o il raggiungimento di un nuovo stato dell’arte, dovremmo chiederci se i benefici superano i costi, se le centinaia di tentativi prima di arrivare a dei risultati pubblicabili siano davvero necessari (su questo tema, per una valutazione complessiva: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜).
Un aspetto discriminante, legato al raggiungimento del “successo” in questo campo, emerge anche dalla effettiva possibilità da parte dei diversi gruppi di ricerca nell’accedere a potenti risorse hardware e agli ingenti finanziamenti necessari.
Una pratica responsabile risiede invece nel mettere in condizione la comunità scientifica di poter replicare con precisione, in modo deterministico, gli esperimenti che abbiamo condotto, attraverso la pubblicazione trasparente dei dettagli implementativi. In mancanza delle informazioni necessarie, infatti, altri gruppi di ricerca dovranno procedere per tentativi, impiegando maggiori quantità di risorse energetiche. Un esempio non virtuoso risiede nella descrizione di GPT-3, un modello del linguaggio che, dato in input un testo, ne fornisce come risultato la continuazione mimando lo stile di scrittura umano. Nonostante la mancanza di dettagli nella documentazione rilasciata, un gruppo di ricercatori e ricercatrici dell’Oxford Internet Institute e dell’Alan Turing Institute ha stimato che una singola esecuzione per allenare il modello equivale a circa le emissioni di 49 macchine in un anno.
Il panorama scientifico ed il dibattito pubblico sono ricchi di proposte e di iniziative, che risultano però disaggregate e, quindi, incapaci di generare cambiamenti rilevanti. Emerge allora la necessità di una mappatura dei progetti in atto, così come di un framework che armonizzi e convogli gli sforzi singoli in una direzione condivisa, per provocare impatti significativi, Ciò richiede diffuse raccolte, collezioni e pubblicazioni di dati quanto più ampiamente rappresentativi e necessita, inoltre, di disponibilità ed interesse da parte delle istituzioni nel finanziare i progetti in una direzione sostenibile. Infatti, il terreno su cui iniziative di questo tipo possono trasformarsi in pratiche trasformative è strettamente dipendente dalle scelte politiche.
Come misurare, quindi, gli impatti ambientali dei sistemi di IA?
I tre piani in cui si giocano i consumi energetici risiedono: (1) nel costo di esecuzione del modello su una singola istanza, (2) nella dimensione dei dati utilizzati per allenare complessivamente il modello, (3) nella quantità di esperimenti condotti al fine di definire la combinazione più efficace dei parametri. Altri aspetti che influenzano il calcolo degli impatti sono il tipo di hardware a disposizione, la durata dell’allenamento, il luogo in cui è consumata l’energia elettrica: è infatti anche da come viene prodotta localmente che possiamo provare a dedurne l’emissione carbonica.
Per tradurre in termini comprensibili il costo ambientale di un modello, è utile avere una scala, un piano di paragone quotidiano, per esempio – come visto precedentemente – trasformando la quantità di emissioni nel consumo annuo di un’automobile, secondo la media di utilizzo del paese di appartenenza.
Per quantificare e ridurre gli effetti dei sistemi di IA sull’ambiente non esiste una lista di soluzioni unica né definitiva: ciò che possiamo iniziare a fare è orientarci tra consigli e pratiche efficaci. Un primo stadio di consapevolezza è sicuramente raggiunto attraverso una scelta più critica di servizi cloud e data-center che sono concretamente impegnati nel ridurre il proprio impatto energetico.
Come ricercatori e ricercatrici dobbiamo scrivere attentamente i programmi affinché siano algoritmicamente veloci ed efficienti, diminuire il numero di esperimenti quando e quanto possibile, valutare l’effettiva utilità dei parametri utilizzati e scegliere hardware performanti.
Un altro importante passo risiede nell’affermare la pratica di indicare in modo trasparente il consumo di risorse utilizzate per quel determinato modello, prevedendo negli articoli scientifici sezioni che riportano considerazioni sugli impatti sociali ed ambientali della tecnologia che si sta pubblicando.
Altre sfide etiche e sociali riguardano la privacy dei dati, il mantenimento dell’autonomia individuale e l’impoverimento di zone già svantaggiate perpetuando la pratica del razzismo ambientale, che sfrutta le risorse di paesi in difficoltà per approvvigionamenti energetici, peggiorando l’inquinamento locale. Affrontare queste problematiche in modo sistemico richiederà approcci interdisciplinari e forte interdipendenza tra la dimensione locale e globale.
È importante infatti ricordare e considerare i sistemi di IA come una tra le possibili soluzioni alla crisi climatica, uno degli strumenti esistenti: non quello definitivo né infallibile.
Essendo anche e soprattutto una dimensione che ha importanti risvolti ambientali, economici e sociali, una soluzione meramente tecnologica non può risolvere la problematica nella sua interezza: soltanto l’interesse e la cura del bene comune potranno innestare un reale cambiamento per la costruzione di un presente e di un domani più sostenibile.
Per approfondire:
Alcuni dei progetti esistenti per quantificare e prevedere l’impronta ambientale in termini di energia utilizzata ed emissioni carboniche:
- https://github.com/lfwa/carbontracker – specifico per modelli di deep learning in fase di training
- https://github.com/Breakend/experiment-impact-tracker – fornisce un sommario online con tutte le informazioni
- https://mlco2.github.io/impact/ – propone un glossario ed una serie di consigli/azioni per diminuire i costi energetici
- http://www.janavirgin.com/CO2/ – quantifica la quantità di CO2 emessa da Google.com dal momento in cui arriviamo sul sito
Paper:
- Bender, Emily M., et al. “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜” Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021.
- Lacoste, Alexandre, et al. “Quantifying the carbon emissions of machine learning.” arXiv preprint arXiv:1910.09700 (2019).
- Rolnick, D. et al. “Tackling Climate Change with Machine Learning.” arXiv preprint arXiv:1905.12616 (2019).
- Strubell, Emma, Ananya Ganesh, and Andrew McCallum. “Energy and policy considerations for deep learning in NLP.” arXiv preprint arXiv:1906.02243 (2019).
- Taddeo, Mariarosaria, et al. “Artificial intelligence and the climate emergency: Opportunities, challenges, and recommendations.” One Earth 4.6 (2021): 776-779.
Articoli, libri e report:
- Buchanan, Will. The Carbon Footprint Of AI. https://devblogs.microsoft.com/sustainable-software/the-carbon-footprint-of-ai/ (2020).
- Etzioni, Roy Schwartz, Jesse Dodge, Noah A. Smith, Oren. Green AI. https://cacm.acm.org/magazines/2020/12/248800-green-ai/fulltext (2020).
- Floridi, Luciano. Il verde e il blu: Idee ingenue per migliorare la politica. Raffaello Cortina editore, 2020.
- Cowls, Josh, et al. “The AI Gambit — Leveraging artificial intelligence to combat climate change: opportunities, challenges, and recommendations.” Challenges, and Recommendations (March 15, 2021) (2021).
Talk:
- Floridi, Luciano, and Bienert, Joerg. “Deep Dive on AI and Climate Change,” July 2021
- Grzelak, Jakub. “The Carbon Footprint of AI: Estimating and decreasing costs of AI models.” King’s College London AI Society. March 2021
Thread e profili Twitter:
- https://twitter.com/ChristophMolnar/status – riflessioni sulla crisi climatica e consigli di un ricercatore che opera nel campo dell’Interpretable Machine Learning
- https://twitter.com/ClimateChangeAI – raccolta di innovazioni significative legate a risorse di Machine Learning per la crisi climatica