Il complesso panorama geopolitico oggi porta a riflettere sull’uso delle IA nel settore bellico, sollevando così temi etici e giuridici sulla responsabilità. L’articolo esplora il rischio della deumanizzazione nei conflitti, dove il confine fra decisione autonoma e supporto diventa sempre più sfumato.
A fine febbraio il governo degli Stati Uniti ha sollevato una domanda che suona come un campanello d’allarme per il periodo storico che stiamo vivendo: chi decide i limiti dell’intelligenza artificiale? Le aziende che sviluppano la tecnologia o i governi nazionali?
Domande che acquistano ancora più peso se inserite nel complesso scenario geopolitico attuale: come cambierà il panorama bellico con l’uso delle IA?
Al centro della questione vi è un contratto attraverso il quale Anthropic, azienda attiva nel campo dell’intelligenza artificiale, ha reso disponibile la propria tecnologia per applicazioni nel settore della difesa statunitense. Stipulato nel luglio 2025 tra il governo degli Stati Uniti e Anthropic, il contratto, del valore di circa 200 milioni di dollari, è stato oggetto, tra la fine di febbraio e l’inizio di marzo, di una richiesta di modifica da parte del governo.
Tra le clausole interessate vi erano quelle che limitavano l’utilizzo della tecnologia per la sorveglianza di massa dei cittadini e per l’impiego dell’IA in sistemi d’arma completamente autonomi. La volontà del Pentagono era di sostituire tali limitazioni con una formulazione più ampia, riferita a “tutti gli usi legittimi”. In caso di rifiuto, l’azienda sarebbe stata classificata come “supply chain risk”.
Di fronte al rifiuto del CEO di Anthropic, Dario Amodei, motivato dall’impossibilità di garantire il rispetto delle condizioni originarie, Open AI è subentrata nel progetto, prendendo il posto di Anthropic.
Anche OpenAI ha previsto alcune limitazioni, ottenendo così dei paletti, che tuttavia non sembrano avere la stessa natura delle clausole originariamente proposte da Anthropic.
Problema di clausole
Come emerge dall’analisi di Francesco D’Isa in un articolo pubblicato su The Bunker, queste nuove linee appaiono configurate come salvaguardie tecniche interne al modello, e non come veri e propri divieti contrattuali dotati di forza giuridica vincolante.
Nel primo caso, la violazione avrebbe potuto comportare la sospensione dell’intero sistema; nel secondo, il limite sembra rimanere più debole e facilmente aggirabile. Ciò che emerge è quindi uno spostamento del luogo della decisione e, di conseguenza, della responsabilità: non più in capo all’azienda che sviluppa la tecnologia, ma allo Stato che la utilizza. Il confine non scompare, ma diventa mobile, ridefinibile di volta in volta.
Il vero quesito
L’attenzione, tuttavia, non dovrebbe concentrarsi sulla contrapposizione tra aziende “buone” e aziende “cattive”. La stessa Anthropic, pur presentandosi come una delle realtà più attente ai rischi etici dell’IA, non rifiuta in assoluto la collaborazione con il settore della difesa, come ricorda anche Matteo Wong sulla rivista The Atlantic.
Il punto centrale è un altro: il modo in cui le IA vengono integrate nel contesto bellico. La modifica di queste clausole apre infatti a scenari in cui diventa sempre più difficile distinguere tra uso dell’intelligenza artificiale come supporto e uso come sostituzione della decisione umana.
Se immaginiamo un futuro non troppo lontano, in cui sistemi autonomi, come droni, possano prendere decisioni di vita o di morte senza un intervento umano diretto, il problema che si impone è quello della responsabilità. Chi decide i limiti? Ma soprattutto: chi risponde delle conseguenze? Se un sistema autonomo dovesse colpire obiettivi civili, a chi sarebbe imputabile la responsabilità?
Come evidenziato da Simone Pieranni, giornalista e autore, nel podcast Fuori da qui, d’ora in poi, con questo precedente, sarà chiaro che si potrà utilizzare l’IA per togliere all’umanità l’unica cosa rimastagli, ovvero quella di sentirsi un mostro davanti all’orrore.
La “banalità” dell’algoritmo
Il quesito che emerge oggi richiama, pur con tutte le differenze del caso, dinamiche già viste nella storia. L’umanità sembra non aver ancora pienamente compreso cosa significhi sottrarsi alla responsabilità delle proprie azioni, nascondendo il peso delle decisioni dietro a burocrazia, procedure o sistemi.
Un’analisi celebre di questo fenomeno si trova in Eichmann in Jerusalem di Hannah Arendt, dove viene introdotto il concetto di “banalità del male”: la possibilità che il male non nasca da una volontà malvagia, ma dall’assenza di pensiero critico e dalla riduzione dell’individuo a ingranaggio di un sistema.
Se allora la deresponsabilizzazione passava attraverso una macchina burocratica composta da esseri umani, oggi si profila un passaggio ulteriore: sistemi sempre più autonomi, nei quali la componente umana rischia di diventare marginale, se non praticamente nulla.
Stando così le cose, il rischio non è soltanto tecnologico, ma giuridico e morale: quello di arrivare a una forma di conflitto senza responsabili e forse, una guerra senza colpevoli.
Lascia un commento