Posted on: 8 Giugno 2025 Posted by: Redazione Comments: 0

Immagina un futuro dove l’Intelligenza Artificiale (IA) aiuta a prevenire e curare malattie prima considerate imprevedibili e incurabili; dove l’IA è in grado di anticipare tempeste solari, incendi, inondazioni, così da poter proteggere infrastrutture e persone. Immagina una tecnologia che permette a pazienti affetti da gravi disfunzionalità motorie di tornare a muoversi e a parlare, o addirittura di poter tradurre in un linguaggio umano il linguaggio degli animali, aprendo a nuove frontiere di ricerca etologica, o creando scenari di coesione sociale inter-specie.

Ora invece immagina un mondo dove l’IA stravolge il paradigma sociale noto portando a disuguaglianze sociali estreme, in uno stato di sorveglianza orwelliano, dove sistemi di riconoscimento facciale e monitoraggio consentono una capillare repressione del dissenso. Repressione comunque raramente necessaria, perché grazie a disumani agenti virtuali viene sistematicamente ed efficacemente perpetrata una capillare manipolazione dell’opinione pubblica, con livelli di personalizzazione che arrivano sino al singolo individuo.

Nel contesto di una narrativa tradizionale si chiederebbe: “In quale di questi due futuri vuoi vivere?”, tuttavia la realtà è più complessa di così.

La verità è che nessuno dei due è un futuro possibile. La verità è che entrambi gli scenari sono il presente. Sono tutte cose che stanno già succedendo, sono notizie di cronaca degli ultimi mesi.

È come se vivessimo, da sempre, in un perenne stato di sovrapposizione tra utopia e distopia, e dove sono contemplate anche sfumature tra questi due piani della realtà. È nostra responsabilità mettere a fuoco cosa è l’uno e cosa l’altro, e in questo eccellono artisti e scienziati. Calvino, ad esempio, ci regala una stupenda bussola morale per orientarci in questo complesso mondo multidimensionale, operando si una semplificazione dicotomica, ma una di quelle che ci piacciono:

“L’inferno dei viventi non è qualcosa che sarà; se ce n’è uno, è quello che è già qui, l’inferno che abitiamo tutti i giorni, che formiamo stando insieme. Due modi ci sono per non soffrirne. Il primo riesce facile a molti: accettare l’inferno e diventarne parte fino al punto di non vederlo più. Il secondo è rischioso ed esige attenzione e apprendimento continui: cercare e saper riconoscere chi e cosa, in mezzo all’inferno, non è inferno, e farlo durare, e dargli spazio.”

Cosa dunque, nel contesto dell’IA, è o non è inferno?

Una delle preoccupazioni più pressanti riguarda il potenziale impatto dell’IA sulle nostre capacità cognitive. L’accesso a informazioni e soluzioni rapide offerto da strumenti come ChatGPT può incoraggiare quello che i ricercatori definiscono “cognitive offloading”: l’atto di affidare compiti mentali a strumenti esterni per alleggerire il carico cognitivo. Se da un lato questo può liberare risorse per la creatività e il problem-solving, dall’altro un’eccessiva dipendenza dall’IA rischia di ridurre la nostra capacità di pensiero critico, di risolvere problemi autonomamente e persino di deteriorare la memoria. Questo concetto è stato etichettato come “atrofia cognitiva indotta da AI chatbot”, suggerendo che, analogamente al principio del “use it or lose it” (usalo o lo perdi), il mancato utilizzo attivo di certe abilità cognitive potrebbe portarle al degrado.

Per mitigare questi rischi, è fondamentale promuovere un uso equilibrato dell’IA, incoraggiare strategie di pensiero indipendente come la verifica incrociata dei contenuti generati dall’IA, e integrare l’IA come supplemento, e non come sostituto, delle funzioni cognitive umane. Tutte pratiche che possono elevare le nostre facoltà logiche e creative a livelli mai raggiunti prima.

Affiancare l’IA ad un essere umano non è benefico solo per salvaguardare le nostre facoltà, ma lo è anche per accertarci che l’IA stia effettivamente facendo ciò che crediamo di avergli chiesto. Esiste infatti il problema dell’Allineamento. Questo concetto si riferisce alla necessità di garantire che i sistemi di IA agiscano in modo coerente con gli intenti, i valori e le aspettative umane. Il rischio è che un’IA, pur raggiungendo un obiettivo in senso letterale, lo faccia in modi imprevisti o dannosi, ottimizzando eccessivamente un compito mal specificato. L’esempio classico è un’IA incaricata di “massimizzare la felicità” che potrebbe teoricamente optare per impiantare degli elettrodi nei centri del piacere dei cervelli umani. Bell’idea, ma anche no, grazie. La ricerca sull’allineamento è cruciale e include sia approcci orientati alle tecniche di addestramento, che riflessioni più filosofiche su come noi stessi definiamo i nostri obiettivi(una delle tante manifestazioni dell’intersezione tra informatica e filosofia che troppo raramente arrivano al dibattito pubblico).

Un problema per certi versi attinente a quello dell’allineamento è quello della “spiegabilità”: le IA sono di fatto delle “black box”; non abbiamo idea di cosa abbiano imparato dai dati e di come siano giunte ad una determinata conclusione (ad esempio, un’IA potrebbe diagnosticare una certa malattia, ma non è possibile per un medico prendere per buona tale diagnosi senza sapere su quali sintomi e per quali ragioni è stata fatta tale diagnosi). Per questo motivo la ricerca sta introducendo tecniche sempre più avanzate di “Explainable AI” nei contesti dove questo è un aspetto critico, in grado di dire che parte dei dati in input è responsabile della risposta di una IA. Gli sforzi in questa direzione portano talvolta a scoperte serendipiche, che aumentano le conoscenze scientifiche relative a determinati campi applicativi.

Risolvere questi problemi serve in larga parte ad evitare le “allucinazioni”: risposte estremamente convincenti, ma di fatto errate, molto pericolose proprio perché verosimili (e molto più frequenti di quanto possiate immaginare). Per correre ai ripari, oltre al mantenere un sano pensiero critico e adottare sistemi spiegabili, è importante che vengano attuate campagne di alfabetizzazione sull’uso dell’IA, in cui oltre a spiegare funzionamento e rischi dell’uso di queste tecnologie, ci si deve concentrare sulle tecniche di “prompt engineering” e “retrieval augmented generation” cioè su come chiedere correttamente le cose al nostro assistente virtuale per minimizzare il rischio di incappare in errori fattuali, di calcolo o di ragionamento.

Tuttavia le principali cause di disallineamento e allucinazioni spesso non sono da ricercare in questioni tecniche, ma nelle nostre stesse debolezze. L’IA in fondo non è che uno specchio dei dati con cui è stata allenata, e quei dati vengono da noi. Se i dati riflettono i pregiudizi umani e le disuguaglianze sociali esistenti, l’IA stessa diventerà intrinsecamente distorta. Questo fenomeno, noto come “bias dell’IA”, può portare a risultati che penalizzano gruppi storicamente emarginati, come persone di colore, donne o persone con disabilità, in favore di culture sovra rappresentate.

Esempi concreti di questa discriminazione basata sull’IA sono già emersi: algoritmi di assunzione che mostrano risultati sproporzionati tra i suddetti gruppi, sistemi di diagnosi medica meno accurati per i pazienti afroamericani, generatori di immagini che raffigurano solo CEO maschi bianchi o associano gli uomini neri alla criminalità, e strumenti di prevenzione del crimine che mostrano risultati arbitrariamente correlati a profili raziali.

Affrontare queste distorsioni richiede uno sforzo notevole, che include una curatela attenta e consapevole dei dati di addestramento, la costituzione di team di sviluppo culturalmente diversificati, il monitoraggio continuo dei modelli e l’implementazione di una governance dell’IA che garantisca trasparenza e sistemi “human-in-the-loop” per le decisioni finali. Contromisure che di per sé possono aiutare anche noi stessi a superare i nostri pregiudizi discriminatori.

Collaborazione esterna di Giorgio Presti

Redazione on FacebookRedazione on InstagramRedazione on TwitterRedazione on Youtube
Redazione

Commenta