Può esistere un’IA responsabile?

Tut­te le IA han­no un aspet­to in comu­ne: il con­su­mo di ener­gia. L’impatto ambien­ta­le dell’IA è infat­ti ogget­to di dibat­ti­to da diver­so tem­po. Seb­be­ne non esi­sta­no anco­ra stu­di siste­ma­ti­ci esau­sti­vi, ci sono indi­zi che fan­no pen­sa­re che il costo ener­ge­ti­co dell’addestramento dei model­li sia signi­fi­ca­ti­vo. Ad esem­pio, l’addestramento di model­li come GPT‑3 pro­du­ce cir­ca 552 ton­nel­la­te di CO₂.

Tut­ta­via, stu­di com­pa­ra­ti­vi sug­ge­ri­sco­no che, per com­pi­ti spe­ci­fi­ci come la scrit­tu­ra o la gene­ra­zio­ne di imma­gi­ni, le emis­sio­ni di car­bo­nio gene­ra­te dal­l’IA sia­no sen­si­bil­men­te infe­rio­ri rispet­to a quel­le pro­dot­te da esse­ri uma­ni che svol­go­no le stes­se atti­vi­tà con stru­men­ti tra­di­zio­na­li. Sono quin­di neces­sa­ri mag­gio­ri sfor­zi di ricer­ca per una com­pren­sio­ne com­ple­ta del­l’im­pat­to. L’utilizzo siste­ma­ti­co dell’intelligenza arti­fi­cia­le potreb­be acce­le­ra­re la cata­stro­fe ambien­ta­le, oppu­re, al con­tra­rio, risol­ver­la. Esi­sto­no, infat­ti, tec­no­lo­gie a bas­so con­su­mo, come le spi­king neu­ral net­work, reti neu­ra­li a impul­si che, imi­tan­do il fun­zio­na­men­to dei neu­ro­ni bio­lo­gi­ci, uti­liz­za­no cor­ren­te elet­tri­ca coin­vol­gen­do esclu­si­va­men­te i neu­ro­ni elet­tro­ni­ci neces­sa­ri inve­ce che disper­de­re ener­gia elet­tri­fi­can­do tut­ti i neu­ro­ni come avvie­ne nel­le reti tra­di­zio­na­li. Le spi­king neu­ral net­work, tut­ta­via, sono anco­ra in fase embrio­na­le e neces­si­ta­no di impe­gno costan­te in ter­mi­ni di inve­sti­men­ti e ricer­ca scientifica.

Vale la pena men­zio­na­re il fat­to che la crea­zio­ne e l’ad­de­stra­men­to di com­ples­se IA come i Lar­ge Lan­gua­ge Models (LLM, tra cui ChatGPT) richie­do­no una poten­za com­pu­ta­zio­na­le e finan­zia­men­ti così ingen­ti che solo pochi player glo­ba­li pos­so­no per­met­ter­se­li. Que­sto ridot­to nume­ro di sta­ke­hol­ders con le risor­se neces­sa­rie con­cen­tra un pote­re signi­fi­ca­ti­vo nel­le mani di poche azien­de, come Goo­gle, Ope­nAI, ecc., sol­le­van­do inter­ro­ga­ti­vi sul­la decen­tra­liz­za­zio­ne e l’ac­ces­so a tali tec­no­lo­gie. Può vale­re la pena esplo­ra­re solu­zio­ni come la gestio­ne pub­bli­ca di con­sor­zi AI o il sup­por­to a con­sor­zi open sour­ce come LAION.

Dato che l’IA comporta costi significativi e concentrazione di potere, diventa fondamentale chiedersi non solo quanto consumano questi sistemi, ma come possano essere sviluppati e utilizzati in modo eticosostenibile.

È qui che entra in gio­co il con­cet­to di IA respon­sa­bi­le. L’IA respon­sa­bi­le rap­pre­sen­ta un approc­cio eti­co allo svi­lup­po e all’im­ple­men­ta­zio­ne di siste­mi IA che pone al cen­tro il benes­se­re uma­no, l’e­qui­tà e la tra­spa­ren­za. Si basa sull’idea che la tec­no­lo­gia deb­ba esse­re pro­get­ta­ta per rispet­ta­re i dirit­ti fon­da­men­ta­li, mini­miz­za­re i dan­ni e distri­bui­re equa­men­te bene­fi­ci e rischi.

Ad esem­pio l’americana Anth­ro­pic ha imple­men­ta­to diver­se pra­ti­che respon­sa­bi­li nell’addestramento di Clau­de, il model­lo di LLM di sua crea­zio­ne, come tec­ni­che di Con­sti­tu­tio­nal AI – un approc­cio per adde­stra­re siste­mi di IA attra­ver­so un insie­me di prin­ci­pi e rego­le eti­che, simi­li a una “costi­tu­zio­ne”, in pra­ti­ca è come dare all’IA una bus­so­la mora­le – che gui­da­no il suo com­por­ta­men­to ver­so rispo­ste alli­nea­te ai valo­ri uma­ni. Tut­ta­via, come ogni siste­ma di AI, pre­sen­ta limi­ta­zio­ni. Può anco­ra sof­fri­re di bias pre­sen­ti nei dati di adde­stra­men­to, la sua tra­spa­ren­za è limi­ta­ta (gli uten­ti non pos­so­no esa­mi­na­re il codi­ce sor­gen­te o i det­ta­gli pre­ci­si dell’addestramento), e rima­ne un siste­ma pri­vo di com­pren­sio­ne morale.

Micro­soft, dal can­to suo, adot­ta una tec­ni­ca di desi­gn dell’IA chia­ma­ta Tru­st­wor­thy AI (IA affi­da­bi­le) e defi­ni­sce una serie di linee gui­da per il rap­por­to Uomo-AI (HAX Desi­gn Libra­ry), tut­te pra­ti­che orien­ta­te a mas­si­miz­za­re la sicu­rez­za, ridur­re le “allu­ci­na­zio­ni”, garan­ti­re il rispet­to del­la pri­va­cy, del copy­right e del­le nor­me sociali.

Que­sta idea di AI respon­sa­bi­le è pro­mos­sa dal Respon­si­ble AI Insti­tu­te (RAI Insti­tu­te). Il RAI Insti­tu­te aiu­ta le orga­niz­za­zio­ni a imple­men­ta­re l’IA respon­sa­bil­men­te, offren­do stru­men­ti e ser­vi­zi per la super­vi­sio­ne e la con­for­mi­tà. L’i­sti­tu­to col­la­bo­ra con deci­so­ri poli­ti­ci e indu­stria per svi­lup­pa­re ben­ch­mark e fra­mework di gover­nan­ce per l’IA.

La vera IA responsabile, infatti, non richiede solo implementazioni tecniche, ma anche ricerca nel campo dell’etica, nonché un quadro normativo di riferimento.

Da una par­te alcu­ni sta­ti sono più cau­ti, come nell’Unione Euro­pea, in cui sta entran­do in vigo­re l’AI Act, che si basa sul­la clas­si­fi­ca­zio­ne dei diver­si usi dell’IA in clas­si di rischio, vie­tan­do quel­li più pro­ble­ma­ti­ci e nor­man­do il resto in modo pro­por­zio­na­le al rischio che com­por­ta­no. Altre nazio­ni, inve­ce, sono più libe­ra­li, come gli Sta­ti Uni­ti, in cui si pre­fe­ri­sce adot­ta­re un approc­cio di auto-rego­la­men­ta­zio­ne azien­da­le. Nel resto del mon­do si stan­no adot­tan­do diver­se sfu­ma­tu­re di que­sti due approc­ci, ma non esi­ste un qua­dro nor­ma­ti­vo matu­ro. Per­ché lo diven­ti, ser­ve che il dibat­ti­to pub­bli­co sul­le IA diven­ti più con­sa­pe­vo­le e informato. 

Lo svi­lup­po di un’IA dav­ve­ro respon­sa­bi­le non dipen­de solo dal­la tec­no­lo­gia, ma anche dal­le scel­te col­let­ti­ve. Infor­ma­re rela­ti­va­men­te ai rischi che essa por­ta con sé (ne abbia­mo par­la­to su Vul­ca­no in un paio di arti­co­li), deci­de­re chi con­trol­la i dati, chi sostie­ne i costi ambien­ta­li e chi bene­fi­cia dei van­tag­gi, signi­fi­ca defi­ni­re i rap­por­ti di pote­re futu­ri. Sen­za un dibat­ti­to pub­bli­co con­sa­pe­vo­le e rego­le con­di­vi­se, il peri­co­lo è che l’innovazione diven­ti pri­vi­le­gio di pochi anzi­ché oppor­tu­ni­tà per tut­ti. Sia­mo pron­ti a pren­de­re par­te al dibat­ti­to e a sce­glie­re insie­me che tipo di futu­ro voglia­mo costruire?

Arti­co­lo di Gior­gio Presti

Con­di­vi­di:
Redazione on FacebookRedazione on InstagramRedazione on TwitterRedazione on Youtube
Redazione

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.