AI Act, una visione europea sul futuro tecnologico

AI Act, una visione europea sul futuro tecnologico

AI, intel­li­gen­za artificiale. 

Per la mag­gior par­te di noi, que­sta espres­sio­ne si ricol­le­ga a ChatGPT e alle imma­gi­ni dee­p­fa­ke, che han­no con­tri­bui­to ad ali­men­ta­re un cli­ma di dif­fi­den­za che spie­ga, alme­no in par­te, i sospet­ti di recen­te sca­te­na­ti­si intor­no alla foto — sem­pli­ce­men­te edi­ta­ta — che ritrae Kate Midd­le­ton con i suoi figli. È una tec­no­lo­gia che sen­tia­mo nomi­na­re qua­si quo­ti­dia­na­men­te, che influen­za (e influen­ze­rà) le nostre vite e che può ave­re — oltre alle innu­me­re­vo­li oppor­tu­ni­tà — degli effet­ti deleteri. 

Pro­prio nell’ottica di evi­ta­re que­sti ulti­mi, l’Unione Euro­pea il 13 mar­zo ha por­ta­to a ter­mi­ne un iter legi­sla­ti­vo ini­zia­to nel 2021, appro­van­do in Par­la­men­to l’Arti­fi­cial Intel­li­gen­ce Act. Il testo ini­zie­rà a pro­dur­re i suoi effet­ti gra­dual­men­te, per arri­va­re all’efficacia nel­la sua inte­rez­za tra due anni. Ecco dun­que che, com’era suc­ces­so in tema di pri­va­cy con il GDPR, i Ven­ti­set­te cer­ca­no di sta­bi­li­re un model­lo ine­di­to sui temi che inte­res­sa­no il nostro tempo. 

Il pun­to foca­le del Rego­la­men­to in que­stio­ne è quel­lo di favo­ri­re uno svi­lup­po del­le intel­li­gen­ze arti­fi­cia­li che sia rispet­to­so dei dirit­ti dei cit­ta­di­ni euro­pei. Nel­le paro­le di Bran­do Beni­fei, mem­bro del Comi­ta­to per il Mer­ca­to Inter­no dell’UE: «ci sia­mo assi­cu­ra­ti che gli esse­ri uma­ni e i valo­ri euro­pei sia­no pro­prio al cen­tro del­lo svi­lup­po dell’AI». Si trat­ta di una scel­ta che non ha pre­cur­so­ri nel­la bre­ve sto­ria del­le intel­li­gen­ze arti­fi­cia­li, per­ché nes­sun altro legi­sla­to­re ha anco­ra nor­ma­to com­piu­ta­men­te il settore. 

Al centro della normativa sta il concetto di “rischio”. 

Quest’ultimo riguar­da la poten­zia­le lesi­vi­tà di un’intelligenza arti­fi­cia­le nei con­fron­ti dei dirit­ti del­le per­so­ne, e può esse­re mini­mo, limi­ta­to, alto o inac­cet­ta­bi­le. Se da un lato le appli­ca­zio­ni a rischio mini­mo (come i fil­tri anti-spam) non sono sog­get­te a con­trol­li e rego­la­men­ta­zio­ni da par­te dell’autorità pub­bli­ca, le AI ad alto rischio (come quel­le in cam­po di tra­spor­ti, sani­tà e istru­zio­ne) dovran­no segui­re un iter di appro­va­zio­ne per poter esse­re ope­ran­ti in Euro­pa. E ciò vale per socie­tà sia euro­pee sia straniere. 

Insom­ma, l’idea del legi­sla­to­re euro­peo è quel­la di favo­ri­re lo svi­lup­po e l’implementazione respon­sa­bi­li del­le AI, non di demonizzarle. 

Vi sono però delle eccezioni: le intelligenze artificiali a rischio inaccettabile. 

Si trat­ta di tec­no­lo­gie estre­ma­men­te per­va­si­ve che si insi­nua­no nel­la vita del sin­go­lo per svol­ge­re vari tipi di con­trol­li. Un esem­pio su tut­ti è il social sco­ring, ovve­ro un siste­ma vol­to ad asse­gna­re e a decur­ta­re pun­ti agli indi­vi­dui in base alle azio­ni da loro com­piu­te, spe­cial­men­te in ambi­to pub­bli­co. Si trat­ta di un con­trol­lo vera­men­te pene­tran­te sul­la vita dei cit­ta­di­ni, che pre­ve­de un siste­ma di sor­ve­glian­za sostan­zial­men­te onni­pre­sen­te. Qua­si un Gran­de Fra­tel­lo che in Euro­pa è ora con­si­de­ra­to come “a rischio inac­cet­ta­bi­le” e per­tan­to illegale. 

È bene nota­re che non è così ovun­que: in Cina il social sco­ring è una real­tà. Il “siste­ma di cre­di­to socia­le”, imple­men­ta­to local­men­te in alcu­ne aree del Pae­se asia­ti­co, rac­co­glie infor­ma­zio­ni sui cit­ta­di­ni allo sco­po di dare loro un voto che influen­ze­rà con­cre­ta­men­te la loro vita. Qual­che esem­pio? Chi ha pun­teg­gi sot­to una cer­ta soglia non può iscri­ve­re i figli a scuo­le pri­va­te, pre­no­ta­re came­re d’hotel, acqui­sta­re voli. Si potrà per­si­no esse­re sot­to­po­sti a un ral­len­ta­men­to del­la velo­ci­tà del pro­prio wi-fi. 

Il siste­ma, va det­to, riguar­da prin­ci­pal­men­te con­trol­li rela­ti­vi all’affidabilità finan­zia­ria, ma il con­trol­lo è este­so anche alla sfe­ra socia­le e ad azio­ni come lascia­re com­men­ti offen­si­vi sui social o vin­ce­re una com­pe­ti­zio­ne sportiva.

Si tratta di scenari cui sono avvezzi i fan del genere sci-fi e delle distopie, come quella del social scoring nella puntata Nosedive di Black Mirror

Eppu­re, ades­so, sia­mo noi i per­so­nag­gi di que­ste sto­rie. Sen­za voler esse­re cata­stro­fi­ci e gri­da­re alla con­cre­tiz­za­zio­ne del 1984 di Orwell, è anche vero che tec­no­lo­gie pri­ma imma­gi­na­bi­li solo da auto­ri fan­ta­sio­si (o, for­se, mol­to lun­gi­mi­ran­ti) sono ora dispo­ni­bi­li o lo saran­no presto. 

Dun­que è impor­tan­te che l’Unione Euro­pea abbia “gio­ca­to d’anticipo” imma­gi­nan­do le pos­si­bi­li rica­du­te nega­ti­ve dell’AI sul­la socie­tà, inse­ren­do nel­la lista dei rischi inac­cet­ta­bi­li anche tec­no­lo­gie effet­ti­va­men­te futu­ri­sti­che. Un esem­pio di que­ste è il pos­si­bi­le uti­liz­zo da par­te dal­la poli­zia di siste­mi in gra­do di pre­di­re la com­mis­sio­ne di cri­mi­ni. Chi ha visto il film Mino­ri­ty Report può ave­re un’idea di ciò di cui si parla. 

All’attenzione posta dal legi­sla­to­re euro­peo sul rispet­to del­le liber­tà degli euro­pei c’è un’importante ecce­zio­ne, costi­tui­ta dal pos­si­bi­le uso da par­te del­la poli­zia del rico­no­sci­men­to fac­cia­le dal­le tele­ca­me­re poste in spa­zi pub­bli­ci. Il limi­te per que­sto tipo di impie­go dell’AI sta nel­la fina­li­tà, che deve esse­re neces­sa­ria­men­te lega­ta a gra­vi rischi per la sicu­rez­za pub­bli­ca come il ter­ro­ri­smo. Alcu­ni osser­va­to­ri han­no guar­da­to con pre­oc­cu­pa­zio­ne alle poten­zia­li­tà nega­ti­ve del­la tec­no­lo­gia in esa­me, sot­to­li­nean­do il rischio di un con­trol­lo di massa.

Nono­stan­te que­sto, però, la lun­gi­mi­ran­za dell’UE sem­bra segno di una volon­tà com­ples­si­va di crea­re uno stan­dard ele­va­to dal pun­to di vista uma­no, uno spa­zio geo­gra­fi­co i cui abi­tan­ti pos­sa­no ras­se­re­nar­si sui pro­pri dirit­ti digitali.

Beatrice Lanza
Amo crea­re play­li­st per ogni situa­zio­ne e inven­ta­re teo­rie socio­lo­gi­che di sana pian­ta. Le sto­rie rac­con­ta­te bene sono da sem­pre una del­le mie cose pre­fe­ri­te. Nel tem­po libe­ro stu­dio giu­ri­spru­den­za alla Statale.
About Beatrice Lanza 11 Articoli
Amo creare playlist per ogni situazione e inventare teorie sociologiche di sana pianta. Le storie raccontate bene sono da sempre una delle mie cose preferite. Nel tempo libero studio giurisprudenza alla Statale.

1 Trackback & Pingback

  1. TikTok Lite, i sospetti di UE e USA - Vulcano Statale

Lascia un commento

L'indirizzo email non sarà pubblicato.