Utopia e distopia: a che punto siamo oggi con le IA?

Imma­gi­na un futu­ro dove l’Intelligenza Arti­fi­cia­le (IA) aiu­ta a pre­ve­ni­re e cura­re malat­tie pri­ma con­si­de­ra­te impre­ve­di­bi­li e incu­ra­bi­li; dove l’IA è in gra­do di anti­ci­pa­re tem­pe­ste sola­ri, incen­di, inon­da­zio­ni, così da poter pro­teg­ge­re infra­strut­tu­re e per­so­ne. Imma­gi­na una tec­no­lo­gia che per­met­te a pazien­ti affet­ti da gra­vi disfun­zio­na­li­tà moto­rie di tor­na­re a muo­ver­si e a par­la­re, o addi­rit­tu­ra di poter tra­dur­re in un lin­guag­gio uma­no il lin­guag­gio degli ani­ma­li, apren­do a nuo­ve fron­tie­re di ricer­ca eto­lo­gi­ca, o crean­do sce­na­ri di coe­sio­ne socia­le inter-specie.

Ora inve­ce imma­gi­na un mon­do dove l’IA stra­vol­ge il para­dig­ma socia­le noto por­tan­do a disu­gua­glian­ze socia­li estre­me, in uno sta­to di sor­ve­glian­za orwel­lia­no, dove siste­mi di rico­no­sci­men­to fac­cia­le e moni­to­rag­gio con­sen­to­no una capil­la­re repres­sio­ne del dis­sen­so. Repres­sio­ne comun­que rara­men­te neces­sa­ria, per­ché gra­zie a disu­ma­ni agen­ti vir­tua­li vie­ne siste­ma­ti­ca­men­te ed effi­ca­ce­men­te per­pe­tra­ta una capil­la­re mani­po­la­zio­ne dell’opinione pub­bli­ca, con livel­li di per­so­na­liz­za­zio­ne che arri­va­no sino al sin­go­lo individuo.

Nel con­te­sto di una nar­ra­ti­va tra­di­zio­na­le si chie­de­reb­be: “In qua­le di que­sti due futu­ri vuoi vive­re?”, tut­ta­via la real­tà è più com­ples­sa di così.

La veri­tà è che nes­su­no dei due è un futu­ro pos­si­bi­le. La veri­tà è che entram­bi gli sce­na­ri sono il pre­sen­te. Sono tut­te cose che stan­no già suc­ce­den­do, sono noti­zie di cro­na­ca degli ulti­mi mesi.

È come se vives­si­mo, da sem­pre, in un peren­ne sta­to di sovrap­po­si­zio­ne tra uto­pia e disto­pia, e dove sono con­tem­pla­te anche sfu­ma­tu­re tra que­sti due pia­ni del­la real­tà. È nostra respon­sa­bi­li­tà met­te­re a fuo­co cosa è l’uno e cosa l’altro, e in que­sto eccel­lo­no arti­sti e scien­zia­ti. Cal­vi­no, ad esem­pio, ci rega­la una stu­pen­da bus­so­la mora­le per orien­tar­ci in que­sto com­ples­so mon­do mul­ti­di­men­sio­na­le, ope­ran­do si una sem­pli­fi­ca­zio­ne dico­to­mi­ca, ma una di quel­le che ci piacciono:

“L’in­fer­no dei viven­ti non è qual­co­sa che sarà; se ce n’è uno, è quel­lo che è già qui, l’in­fer­no che abi­tia­mo tut­ti i gior­ni, che for­mia­mo stan­do insie­me. Due modi ci sono per non sof­frir­ne. Il pri­mo rie­sce faci­le a mol­ti: accet­ta­re l’in­fer­no e diven­tar­ne par­te fino al pun­to di non veder­lo più. Il secon­do è rischio­so ed esi­ge atten­zio­ne e appren­di­men­to con­ti­nui: cer­ca­re e saper rico­no­sce­re chi e cosa, in mez­zo all’in­fer­no, non è infer­no, e far­lo dura­re, e dar­gli spazio.”

Cosa dun­que, nel con­te­sto dell’IA, ènon è inferno?

Una del­le pre­oc­cu­pa­zio­ni più pres­san­ti riguar­da il poten­zia­le impat­to del­l’IA sul­le nostre capa­ci­tà cogni­ti­ve. L’ac­ces­so a infor­ma­zio­ni e solu­zio­ni rapi­de offer­to da stru­men­ti come ChatGPT può inco­rag­gia­re quel­lo che i ricer­ca­to­ri defi­ni­sco­no “cogni­ti­ve offloa­ding”: l’at­to di affi­da­re com­pi­ti men­ta­li a stru­men­ti ester­ni per alleg­ge­ri­re il cari­co cogni­ti­vo. Se da un lato que­sto può libe­ra­re risor­se per la crea­ti­vi­tà e il pro­blem-sol­ving, dal­l’al­tro un’ec­ces­si­va dipen­den­za dal­l’IA rischia di ridur­re la nostra capa­ci­tà di pen­sie­ro cri­ti­co, di risol­ve­re pro­ble­mi auto­no­ma­men­te e per­si­no di dete­rio­ra­re la memo­ria. Que­sto con­cet­to è sta­to eti­chet­ta­to come “atro­fia cogni­ti­va indot­ta da AI chat­bot”, sug­ge­ren­do che, ana­lo­ga­men­te al prin­ci­pio del “use it or lose it” (usa­lo o lo per­di), il man­ca­to uti­liz­zo atti­vo di cer­te abi­li­tà cogni­ti­ve potreb­be por­tar­le al degrado.

Per miti­ga­re que­sti rischi, è fon­da­men­ta­le pro­muo­ve­re un uso equi­li­bra­to del­l’IA, inco­rag­gia­re stra­te­gie di pen­sie­ro indi­pen­den­te come la veri­fi­ca incro­cia­ta dei con­te­nu­ti gene­ra­ti dal­l’IA, e inte­gra­re l’IA come sup­ple­men­to, e non come sosti­tu­to, del­le fun­zio­ni cogni­ti­ve uma­ne. Tut­te pra­ti­che che pos­so­no ele­va­re le nostre facol­tà logi­che e crea­ti­ve a livel­li mai rag­giun­ti prima.

Affian­ca­re l’IA ad un esse­re uma­no non è bene­fi­co solo per sal­va­guar­da­re le nostre facol­tà, ma lo è anche per accer­tar­ci che l’IA stia effet­ti­va­men­te facen­do ciò che cre­dia­mo di aver­gli chie­sto. Esi­ste infat­ti il pro­ble­ma dell’Allineamento. Que­sto con­cet­to si rife­ri­sce alla neces­si­tà di garan­ti­re che i siste­mi di IA agi­sca­no in modo coe­ren­te con gli inten­ti, i valo­ri e le aspet­ta­ti­ve uma­ne. Il rischio è che un’IA, pur rag­giun­gen­do un obiet­ti­vo in sen­so let­te­ra­le, lo fac­cia in modi impre­vi­sti o dan­no­si, otti­miz­zan­do ecces­si­va­men­te un com­pi­to mal spe­ci­fi­ca­to. L’e­sem­pio clas­si­co è un’IA inca­ri­ca­ta di “mas­si­miz­za­re la feli­ci­tà” che potreb­be teo­ri­ca­men­te opta­re per impian­ta­re degli elet­tro­di nei cen­tri del pia­ce­re dei cer­vel­li uma­ni. Bell’idea, ma anche no, gra­zie. La ricer­ca sul­l’al­li­nea­men­to è cru­cia­le e inclu­de sia approc­ci orien­ta­ti alle tec­ni­che di adde­stra­men­to, che rifles­sio­ni più filo­so­fi­che su come noi stes­si defi­nia­mo i nostri obiettivi(una del­le tan­te mani­fe­sta­zio­ni dell’intersezione tra infor­ma­ti­ca e filo­so­fia che trop­po rara­men­te arri­va­no al dibat­ti­to pubblico).

Un pro­ble­ma per cer­ti ver­si atti­nen­te a quel­lo dell’allineamento è quel­lo del­la “spie­ga­bi­li­tà”: le IA sono di fat­to del­le “black box”; non abbia­mo idea di cosa abbia­no impa­ra­to dai dati e di come sia­no giun­te ad una deter­mi­na­ta con­clu­sio­ne (ad esem­pio, un’IA potreb­be dia­gno­sti­ca­re una cer­ta malat­tia, ma non è pos­si­bi­le per un medi­co pren­de­re per buo­na tale dia­gno­si sen­za sape­re su qua­li sin­to­mi e per qua­li ragio­ni è sta­ta fat­ta tale dia­gno­si). Per que­sto moti­vo la ricer­ca sta intro­du­cen­do tec­ni­che sem­pre più avan­za­te di “Explai­na­ble AI” nei con­te­sti dove que­sto è un aspet­to cri­ti­co, in gra­do di dire che par­te dei dati in input è respon­sa­bi­le del­la rispo­sta di una IA. Gli sfor­zi in que­sta dire­zio­ne por­ta­no tal­vol­ta a sco­per­te seren­di­pi­che, che aumen­ta­no le cono­scen­ze scien­ti­fi­che rela­ti­ve a deter­mi­na­ti cam­pi applicativi.

Risol­ve­re que­sti pro­ble­mi ser­ve in lar­ga par­te ad evi­ta­re le “allu­ci­na­zio­ni”: rispo­ste estre­ma­men­te con­vin­cen­ti, ma di fat­to erra­te, mol­to peri­co­lo­se pro­prio per­ché vero­si­mi­li (e mol­to più fre­quen­ti di quan­to pos­sia­te imma­gi­na­re). Per cor­re­re ai ripa­ri, oltre al man­te­ne­re un sano pen­sie­ro cri­ti­co e adot­ta­re siste­mi spie­ga­bi­li, è impor­tan­te che ven­ga­no attua­te cam­pa­gne di alfa­be­tiz­za­zio­ne sull’uso dell’IA, in cui oltre a spie­ga­re fun­zio­na­men­to e rischi dell’uso di que­ste tec­no­lo­gie, ci si deve con­cen­tra­re sul­le tec­ni­che di “prompt engi­nee­ring” e “retrie­val aug­men­ted gene­ra­tion” cioè su come chie­de­re cor­ret­ta­men­te le cose al nostro assi­sten­te vir­tua­le per mini­miz­za­re il rischio di incap­pa­re in erro­ri fat­tua­li, di cal­co­lo o di ragionamento.

Tut­ta­via le prin­ci­pa­li cau­se di disal­li­nea­men­to e allu­ci­na­zio­ni spes­so non sono da ricer­ca­re in que­stio­ni tec­ni­che, ma nel­le nostre stes­se debo­lez­ze. L’IA in fon­do non è che uno spec­chio dei dati con cui è sta­ta alle­na­ta, e quei dati ven­go­no da noi. Se i dati riflet­to­no i pre­giu­di­zi uma­ni e le disu­gua­glian­ze socia­li esi­sten­ti, l’IA stes­sa diven­te­rà intrin­se­ca­men­te distor­ta. Que­sto feno­me­no, noto come “bias del­l’IA”, può por­ta­re a risul­ta­ti che pena­liz­za­no grup­pi sto­ri­ca­men­te emar­gi­na­ti, come per­so­ne di colo­re, don­ne o per­so­ne con disa­bi­li­tà, in favo­re di cul­tu­re sovra rappresentate.

Esem­pi con­cre­ti di que­sta discri­mi­na­zio­ne basa­ta sul­l’IA sono già emer­si: algo­rit­mi di assun­zio­ne che mostra­no risul­ta­ti spro­por­zio­na­ti tra i sud­det­ti grup­pi, siste­mi di dia­gno­si medi­ca meno accu­ra­ti per i pazien­ti afroa­me­ri­ca­ni, gene­ra­to­ri di imma­gi­ni che raf­fi­gu­ra­no solo CEO maschi bian­chi o asso­cia­no gli uomi­ni neri alla cri­mi­na­li­tà, e stru­men­ti di pre­ven­zio­ne del cri­mi­ne che mostra­no risul­ta­ti arbi­tra­ria­men­te cor­re­la­ti a pro­fi­li raziali.

Affron­ta­re que­ste distor­sio­ni richie­de uno sfor­zo note­vo­le, che inclu­de una cura­te­la atten­ta e con­sa­pe­vo­le dei dati di adde­stra­men­to, la costi­tu­zio­ne di team di svi­lup­po cul­tu­ral­men­te diver­si­fi­ca­ti, il moni­to­rag­gio con­ti­nuo dei model­li e l’im­ple­men­ta­zio­ne di una gover­nan­ce del­l’IA che garan­ti­sca tra­spa­ren­za e siste­mi “human-in-the-loop” per le deci­sio­ni fina­li. Con­tro­mi­su­re che di per sé pos­so­no aiu­ta­re anche noi stes­si a supe­ra­re i nostri pre­giu­di­zi discriminatori.

Col­la­bo­ra­zio­ne ester­na di Gior­gio Presti

Con­di­vi­di:
Redazione on FacebookRedazione on InstagramRedazione on TwitterRedazione on Youtube
Redazione

2 Trackback & Pingback

  1. Le “nuove” sfide sociali portate dall’IA: problemi vecchi per tecnologie nuove - Vulcano Statale
  2. L’intelligenza artificiale rischia di rinforzare pregiudizi e disuguaglianze - Vulcano Statale

Lascia un commento

L'indirizzo email non sarà pubblicato.