Del: 26 Marzo 2024 Di: Beatrice Lanza Commenti: 0
AI Act, una visione europea sul futuro tecnologico

AI, intelligenza artificiale. 

Per la maggior parte di noi, questa espressione si ricollega a ChatGPT e alle immagini deepfake, che hanno contribuito ad alimentare un clima di diffidenza che spiega, almeno in parte, i sospetti di recente scatenatisi intorno alla foto — semplicemente editata — che ritrae Kate Middleton con i suoi figli. È una tecnologia che sentiamo nominare quasi quotidianamente, che influenza (e influenzerà) le nostre vite e che può avere — oltre alle innumerevoli opportunità — degli effetti deleteri. 

Proprio nell’ottica di evitare questi ultimi, l’Unione Europea il 13 marzo ha portato a termine un iter legislativo iniziato nel 2021, approvando in Parlamento l’Artificial Intelligence Act. Il testo inizierà a produrre i suoi effetti gradualmente, per arrivare all’efficacia nella sua interezza tra due anni. Ecco dunque che, com’era successo in tema di privacy con il GDPR, i Ventisette cercano di stabilire un modello inedito sui temi che interessano il nostro tempo. 

Il punto focale del Regolamento in questione è quello di favorire uno sviluppo delle intelligenze artificiali che sia rispettoso dei diritti dei cittadini europei. Nelle parole di Brando Benifei, membro del Comitato per il Mercato Interno dell’UE: «ci siamo assicurati che gli esseri umani e i valori europei siano proprio al centro dello sviluppo dell’AI». Si tratta di una scelta che non ha precursori nella breve storia delle intelligenze artificiali, perché nessun altro legislatore ha ancora normato compiutamente il settore. 

Al centro della normativa sta il concetto di “rischio”. 

Quest’ultimo riguarda la potenziale lesività di un’intelligenza artificiale nei confronti dei diritti delle persone, e può essere minimo, limitato, alto o inaccettabile. Se da un lato le applicazioni a rischio minimo (come i filtri anti-spam) non sono soggette a controlli e regolamentazioni da parte dell’autorità pubblica, le AI ad alto rischio (come quelle in campo di trasporti, sanità e istruzione) dovranno seguire un iter di approvazione per poter essere operanti in Europa. E ciò vale per società sia europee sia straniere. 

Insomma, l’idea del legislatore europeo è quella di favorire lo sviluppo e l’implementazione responsabili delle AI, non di demonizzarle. 

Vi sono però delle eccezioni: le intelligenze artificiali a rischio inaccettabile. 

Si tratta di tecnologie estremamente pervasive che si insinuano nella vita del singolo per svolgere vari tipi di controlli. Un esempio su tutti è il social scoring, ovvero un sistema volto ad assegnare e a decurtare punti agli individui in base alle azioni da loro compiute, specialmente in ambito pubblico. Si tratta di un controllo veramente penetrante sulla vita dei cittadini, che prevede un sistema di sorveglianza sostanzialmente onnipresente. Quasi un Grande Fratello che in Europa è ora considerato come “a rischio inaccettabile” e pertanto illegale. 

È bene notare che non è così ovunque: in Cina il social scoring è una realtà. Il “sistema di credito sociale”, implementato localmente in alcune aree del Paese asiatico, raccoglie informazioni sui cittadini allo scopo di dare loro un voto che influenzerà concretamente la loro vita. Qualche esempio? Chi ha punteggi sotto una certa soglia non può iscrivere i figli a scuole private, prenotare camere d’hotel, acquistare voli. Si potrà persino essere sottoposti a un rallentamento della velocità del proprio wi-fi. 

Il sistema, va detto, riguarda principalmente controlli relativi all’affidabilità finanziaria, ma il controllo è esteso anche alla sfera sociale e ad azioni come lasciare commenti offensivi sui social o vincere una competizione sportiva.

Si tratta di scenari cui sono avvezzi i fan del genere sci-fi e delle distopie, come quella del social scoring nella puntata Nosedive di Black Mirror

Eppure, adesso, siamo noi i personaggi di queste storie. Senza voler essere catastrofici e gridare alla concretizzazione del 1984 di Orwell, è anche vero che tecnologie prima immaginabili solo da autori fantasiosi (o, forse, molto lungimiranti) sono ora disponibili o lo saranno presto. 

Dunque è importante che l’Unione Europea abbia “giocato d’anticipo” immaginando le possibili ricadute negative dell’AI sulla società, inserendo nella lista dei rischi inaccettabili anche tecnologie effettivamente futuristiche. Un esempio di queste è il possibile utilizzo da parte dalla polizia di sistemi in grado di predire la commissione di crimini. Chi ha visto il film Minority Report può avere un’idea di ciò di cui si parla. 

All’attenzione posta dal legislatore europeo sul rispetto delle libertà degli europei c’è un’importante eccezione, costituita dal possibile uso da parte della polizia del riconoscimento facciale dalle telecamere poste in spazi pubblici. Il limite per questo tipo di impiego dell’AI sta nella finalità, che deve essere necessariamente legata a gravi rischi per la sicurezza pubblica come il terrorismo. Alcuni osservatori hanno guardato con preoccupazione alle potenzialità negative della tecnologia in esame, sottolineando il rischio di un controllo di massa.

Nonostante questo, però, la lungimiranza dell’UE sembra segno di una volontà complessiva di creare uno standard elevato dal punto di vista umano, uno spazio geografico i cui abitanti possano rasserenarsi sui propri diritti digitali.

Beatrice Lanza
Amo creare playlist per ogni situazione e inventare teorie sociologiche di sana pianta. Le storie raccontate bene sono da sempre una delle mie cose preferite. Nel tempo libero studio giurisprudenza alla Statale.

Commenta