Tutte le IA hanno un aspetto in comune: il consumo di energia. L’impatto ambientale dell’IA è infatti oggetto di dibattito da diverso tempo. Sebbene non esistano ancora studi sistematici esaustivi, ci sono indizi che fanno pensare che il costo energetico dell’addestramento dei modelli sia significativo. Ad esempio, l’addestramento di modelli come GPT‑3 produce circa 552 tonnellate di CO₂.
Tuttavia, studi comparativi suggeriscono che, per compiti specifici come la scrittura o la generazione di immagini, le emissioni di carbonio generate dall’IA siano sensibilmente inferiori rispetto a quelle prodotte da esseri umani che svolgono le stesse attività con strumenti tradizionali. Sono quindi necessari maggiori sforzi di ricerca per una comprensione completa dell’impatto. L’utilizzo sistematico dell’intelligenza artificiale potrebbe accelerare la catastrofe ambientale, oppure, al contrario, risolverla. Esistono, infatti, tecnologie a basso consumo, come le spiking neural network, reti neurali a impulsi che, imitando il funzionamento dei neuroni biologici, utilizzano corrente elettrica coinvolgendo esclusivamente i neuroni elettronici necessari invece che disperdere energia elettrificando tutti i neuroni come avviene nelle reti tradizionali. Le spiking neural network, tuttavia, sono ancora in fase embrionale e necessitano di impegno costante in termini di investimenti e ricerca scientifica.
Vale la pena menzionare il fatto che la creazione e l’addestramento di complesse IA come i Large Language Models (LLM, tra cui ChatGPT) richiedono una potenza computazionale e finanziamenti così ingenti che solo pochi player globali possono permetterseli. Questo ridotto numero di stakeholders con le risorse necessarie concentra un potere significativo nelle mani di poche aziende, come Google, OpenAI, ecc., sollevando interrogativi sulla decentralizzazione e l’accesso a tali tecnologie. Può valere la pena esplorare soluzioni come la gestione pubblica di consorzi AI o il supporto a consorzi open source come LAION.
Dato che l’IA comporta costi significativi e concentrazione di potere, diventa fondamentale chiedersi non solo quanto consumano questi sistemi, ma come possano essere sviluppati e utilizzati in modo etico e sostenibile.
È qui che entra in gioco il concetto di IA responsabile. L’IA responsabile rappresenta un approccio etico allo sviluppo e all’implementazione di sistemi IA che pone al centro il benessere umano, l’equità e la trasparenza. Si basa sull’idea che la tecnologia debba essere progettata per rispettare i diritti fondamentali, minimizzare i danni e distribuire equamente benefici e rischi.
Ad esempio l’americana Anthropic ha implementato diverse pratiche responsabili nell’addestramento di Claude, il modello di LLM di sua creazione, come tecniche di Constitutional AI – un approccio per addestrare sistemi di IA attraverso un insieme di principi e regole etiche, simili a una “costituzione”, in pratica è come dare all’IA una bussola morale – che guidano il suo comportamento verso risposte allineate ai valori umani. Tuttavia, come ogni sistema di AI, presenta limitazioni. Può ancora soffrire di bias presenti nei dati di addestramento, la sua trasparenza è limitata (gli utenti non possono esaminare il codice sorgente o i dettagli precisi dell’addestramento), e rimane un sistema privo di comprensione morale.
Microsoft, dal canto suo, adotta una tecnica di design dell’IA chiamata Trustworthy AI (IA affidabile) e definisce una serie di linee guida per il rapporto Uomo-AI (HAX Design Library), tutte pratiche orientate a massimizzare la sicurezza, ridurre le “allucinazioni”, garantire il rispetto della privacy, del copyright e delle norme sociali.
Questa idea di AI responsabile è promossa dal Responsible AI Institute (RAI Institute). Il RAI Institute aiuta le organizzazioni a implementare l’IA responsabilmente, offrendo strumenti e servizi per la supervisione e la conformità. L’istituto collabora con decisori politici e industria per sviluppare benchmark e framework di governance per l’IA.
La vera IA responsabile, infatti, non richiede solo implementazioni tecniche, ma anche ricerca nel campo dell’etica, nonché un quadro normativo di riferimento.
Da una parte alcuni stati sono più cauti, come nell’Unione Europea, in cui sta entrando in vigore l’AI Act, che si basa sulla classificazione dei diversi usi dell’IA in classi di rischio, vietando quelli più problematici e normando il resto in modo proporzionale al rischio che comportano. Altre nazioni, invece, sono più liberali, come gli Stati Uniti, in cui si preferisce adottare un approccio di auto-regolamentazione aziendale. Nel resto del mondo si stanno adottando diverse sfumature di questi due approcci, ma non esiste un quadro normativo maturo. Perché lo diventi, serve che il dibattito pubblico sulle IA diventi più consapevole e informato.
Lo sviluppo di un’IA davvero responsabile non dipende solo dalla tecnologia, ma anche dalle scelte collettive. Informare relativamente ai rischi che essa porta con sé (ne abbiamo parlato su Vulcano in un paio di articoli), decidere chi controlla i dati, chi sostiene i costi ambientali e chi beneficia dei vantaggi, significa definire i rapporti di potere futuri. Senza un dibattito pubblico consapevole e regole condivise, il pericolo è che l’innovazione diventi privilegio di pochi anziché opportunità per tutti. Siamo pronti a prendere parte al dibattito e a scegliere insieme che tipo di futuro vogliamo costruire?
Articolo di Giorgio Presti




Lascia un commento