Che cosa rimane dell’essere umano senza la sua responsabilità? Le IA in guerra

Mentre il governo degli Stati Uniti preme per automatizzare la difesa, lo scontro sui contratti IA solleva un dubbio morale: chi risponderà delle azioni di una macchina?

Il complesso panorama geopolitico oggi porta a riflettere sull’uso delle IA nel settore bellico, sollevando così temi etici e giuridici sulla responsabilità. L’articolo esplora il rischio della deumanizzazione nei conflitti, dove il confine fra decisione autonoma e supporto diventa sempre più sfumato.

A fine feb­bra­io il gover­no degli Sta­ti Uni­ti ha sol­le­va­to una doman­da che suo­na come un cam­pa­nel­lo d’allarme per il perio­do sto­ri­co che stia­mo viven­do: chi deci­de i limi­ti dell’intelligenza arti­fi­cia­le? Le azien­de che svi­lup­pa­no la tec­no­lo­gia o i gover­ni nazionali?

Doman­de che acqui­sta­no anco­ra più peso se inse­ri­te nel com­ples­so sce­na­rio geo­po­li­ti­co attua­le: come cam­bie­rà il pano­ra­ma bel­li­co con l’uso del­le IA?

Al cen­tro del­la que­stio­ne vi è un con­trat­to attra­ver­so il qua­le Anth­ro­pic, azien­da atti­va nel cam­po dell’intelligenza arti­fi­cia­le, ha reso dispo­ni­bi­le la pro­pria tec­no­lo­gia per appli­ca­zio­ni nel set­to­re del­la dife­sa sta­tu­ni­ten­se. Sti­pu­la­to nel luglio 2025 tra il gover­no degli Sta­ti Uni­ti e Anth­ro­pic, il con­trat­to, del valo­re di cir­ca 200 milio­ni di dol­la­ri, è sta­to ogget­to, tra la fine di feb­bra­io e l’inizio di mar­zo, di una richie­sta di modi­fi­ca da par­te del governo.

Tra le clau­so­le inte­res­sa­te vi era­no quel­le che limi­ta­va­no l’utilizzo del­la tec­no­lo­gia per la sor­ve­glian­za di mas­sa dei cit­ta­di­ni e per l’impiego dell’IA in siste­mi d’arma com­ple­ta­men­te auto­no­mi. La volon­tà del Pen­ta­go­no era di sosti­tui­re tali limi­ta­zio­ni con una for­mu­la­zio­ne più ampia, rife­ri­ta a “tut­ti gli usi legit­ti­mi”. In caso di rifiu­to, l’azienda sareb­be sta­ta clas­si­fi­ca­ta come “sup­ply chain risk”.

Di fron­te al rifiu­to del CEO di Anth­ro­pic, Dario Amo­dei, moti­va­to dall’impossibilità di garan­ti­re il rispet­to del­le con­di­zio­ni ori­gi­na­rie, Open AI è suben­tra­ta nel pro­get­to, pren­den­do il posto di Anthropic.

Anche Ope­nAI ha pre­vi­sto alcu­ne limi­ta­zio­ni, otte­nen­do così dei palet­ti, che tut­ta­via non sem­bra­no ave­re la stes­sa natu­ra del­le clau­so­le ori­gi­na­ria­men­te pro­po­ste da Anthropic.

Problema di clausole

Come emer­ge dall’ana­li­si di Fran­ce­sco D’Isa in un arti­co­lo pub­bli­ca­to su The Bun­ker, que­ste nuo­ve linee appa­io­no con­fi­gu­ra­te come sal­va­guar­die tec­ni­che inter­ne al model­lo, e non come veri e pro­pri divie­ti con­trat­tua­li dota­ti di for­za giu­ri­di­ca vincolante.

Nel pri­mo caso, la vio­la­zio­ne avreb­be potu­to com­por­ta­re la sospen­sio­ne dell’intero siste­ma; nel secon­do, il limi­te sem­bra rima­ne­re più debo­le e facil­men­te aggi­ra­bi­le. Ciò che emer­ge è quin­di uno spo­sta­men­to del luo­go del­la deci­sio­ne e, di con­se­guen­za, del­la respon­sa­bi­li­tà: non più in capo all’azienda che svi­lup­pa la tec­no­lo­gia, ma allo Sta­to che la uti­liz­za. Il con­fi­ne non scom­pa­re, ma diven­ta mobi­le, ride­fi­ni­bi­le di vol­ta in volta.

Il vero quesito

L’attenzione, tut­ta­via, non dovreb­be con­cen­trar­si sul­la con­trap­po­si­zio­ne tra azien­de “buo­ne” e azien­de “cat­ti­ve”. La stes­sa Anth­ro­pic, pur pre­sen­tan­do­si come una del­le real­tà più atten­te ai rischi eti­ci dell’IA, non rifiu­ta in asso­lu­to la col­la­bo­ra­zio­ne con il set­to­re del­la dife­sa, come ricor­da anche Mat­teo Wong sul­la rivi­sta The Atlan­tic.

Il pun­to cen­tra­le è un altro: il modo in cui le IA ven­go­no inte­gra­te nel con­te­sto bel­li­co. La modi­fi­ca di que­ste clau­so­le apre infat­ti a sce­na­ri in cui diven­ta sem­pre più dif­fi­ci­le distin­gue­re tra uso dell’intelligenza arti­fi­cia­le come sup­por­to e uso come sosti­tu­zio­ne del­la deci­sio­ne umana.

Se imma­gi­nia­mo un futu­ro non trop­po lon­ta­no, in cui siste­mi auto­no­mi, come dro­ni, pos­sa­no pren­de­re deci­sio­ni di vita o di mor­te sen­za un inter­ven­to uma­no diret­to, il pro­ble­ma che si impo­ne è quel­lo del­la respon­sa­bi­li­tà. Chi deci­de i limi­ti? Ma soprat­tut­to: chi rispon­de del­le con­se­guen­ze? Se un siste­ma auto­no­mo doves­se col­pi­re obiet­ti­vi civi­li, a chi sareb­be impu­ta­bi­le la responsabilità?

Come evi­den­zia­to da Simo­ne Pie­ran­ni, gior­na­li­sta e auto­re, nel pod­ca­st Fuo­ri da qui, d’ora in poi, con que­sto pre­ce­den­te, sarà chia­ro che si potrà uti­liz­za­re l’IA per toglie­re all’umanità l’unica cosa rima­sta­gli, ovve­ro quel­la di sen­tir­si un mostro davan­ti all’orrore.

La “banalità” dell’algoritmo

Il que­si­to che emer­ge oggi richia­ma, pur con tut­te le dif­fe­ren­ze del caso, dina­mi­che già viste nel­la sto­ria. L’umanità sem­bra non aver anco­ra pie­na­men­te com­pre­so cosa signi­fi­chi sot­trar­si alla respon­sa­bi­li­tà del­le pro­prie azio­ni, nascon­den­do il peso del­le deci­sio­ni die­tro a buro­cra­zia, pro­ce­du­re o sistemi.

Un’analisi cele­bre di que­sto feno­me­no si tro­va in Eich­mann in Jeru­sa­lem di Han­nah Arendt, dove vie­ne intro­dot­to il con­cet­to di “bana­li­tà del male”: la pos­si­bi­li­tà che il male non nasca da una volon­tà mal­va­gia, ma dall’assenza di pen­sie­ro cri­ti­co e dal­la ridu­zio­ne dell’individuo a ingra­nag­gio di un sistema.

Se allo­ra la dere­spon­sa­bi­liz­za­zio­ne pas­sa­va attra­ver­so una mac­chi­na buro­cra­ti­ca com­po­sta da esse­ri uma­ni, oggi si pro­fi­la un pas­sag­gio ulte­rio­re: siste­mi sem­pre più auto­no­mi, nei qua­li la com­po­nen­te uma­na rischia di diven­ta­re mar­gi­na­le, se non pra­ti­ca­men­te nulla.

Stan­do così le cose, il rischio non è sol­tan­to tec­no­lo­gi­co, ma giu­ri­di­co e mora­le: quel­lo di arri­va­re a una for­ma di con­flit­to sen­za respon­sa­bi­li e for­se, una guer­ra sen­za colpevoli.

Con­di­vi­di:
Joel Cangemi

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.