Venerdì 11 ottobre, l’Università di Roma La Sapienza ha ospitato un'importante conferenza organizzata dall'Istituto di Ricerche Internazionali Archivio Disarmo (IRIAD) e la Rete Italiana Pace e Disarmo, in collaborazione con numerose organizzazioni non governative. L'incontro ha avuto come focus l’uso dell’intelligenza artificiale in contesti di guerra.

Le macchine sono oggi al centro del dibattito, in particolare in relazione a due conflitti attuali, dove l’impiego di tecnologie avanzate coinvolge sempre più i civili. Dai droni semi-autonomi e autonomi nel conflitto tra Russia e Ucraina, all’uso di algoritmi per l'identificazione di potenziali nemici nel conflitto tra Israele e Gaza, emerge un interrogativo cruciale: stiamo delegando decisioni umane alle macchine?

L’uso degli algoritmi nel conflitto a Gaza

Con riferimento al conflitto attuale a Gaza, è intervenuto Meron Rapoport, giornalista israeliano presso Local Call e 972, per discutere dell’uso dell’intelligenza artificiale da parte di Israele in risposta all'attacco di Hamas del 7 ottobre 2023. L'intelligenza artificiale ha generato una lista di obiettivi, che includeva sia infrastrutture militari, come basi e campi di addestramento, sia individui, tra cui militanti di Hamas e jihadisti islamici, sulla base di vasti dati raccolti dallo Stato.

La lista iniziale contava oltre 37.000 persone, con una soglia di errore stimata intorno al 10%. Questo margine di errore, insieme al numero di danni collaterali accettati, ha portato a un problema significativo: gli errori, amplificati dal limitato controllo umano sulle liste generate automaticamente. Il punto cruciale emerso non è tanto se l’uso della IA sia giustificato, quanto piuttosto le conseguenze del suo impiego.

Un esempio dell'impatto devastante dell'algoritmo è stato il tentativo di identificare potenziali militanti di Hamas per le strade, ad esempio nei punti di ricarica. Questo ha portato a un numero drammatico di morti e feriti tra i civili, colpiti per errore. Come ha sottolineato Safwat Al Kahlout, giornalista di Al Jazeera, molte delle vittime erano persone innocenti che si trovavano semplicemente nel posto sbagliato al momento sbagliato, evidenziando così i gravi rischi di affidarsi a tecnologie di questo tipo in contesti di conflitto.  

L’opinione pubblica sull’uso dell’intelligenza artificiale

L’opinione pubblica sull’uso dell’intelligenza artificiale in guerra è emersa chiaramente durante la conferenza, grazie all'analisi di Francesca Farruggia, IRIAD. Con riferimento a un sondaggio condotto dall’IPSOS nel 2021, si è notato come il 61% degli intervistati in 28 Paesi sia contrario all'uso dell'intelligenza artificiale in ambito militare. Le principali motivazioni riguardano il costo delle armi, la potenziale illegalità delle azioni condotte, il rischio di malfunzionamenti tecnici e i dubbi sulle responsabilità in caso di errori. Tuttavia, la questione centrale che ha suscitato maggiore preoccupazione è di natura morale: delegare a una macchina la decisione di vita o di morte su un essere umano solleva interrogativi etici profondi che meritano di essere affrontati.

Le norme internazionali sulle armi autonome

Se il 2024 segna i 160 anni dalla prima Convenzione di Ginevra, la complessa emergenza globale di oggi mette in discussione i risultati normativi internazionali raggiunti finora. Una delle principali criticità attuali riguarda la definizione di armi letali autonome. Come evidenziato da Rosario Valastro, presidente della Croce Rossa Italiana, non è necessario che un’arma sia letale per essere considerata illegale; ciò che conta è la sua capacità di colpire indiscriminatamente. Il dibattito dovrebbe quindi concentrarsi sui danni indiscriminati, più che sulla letalità.

La necessità di un quadro normativo richiede uno sforzo non solo a livello ONU, ma anche da parte di organizzazioni civili. Davide Del Monte, presidente di Info Nodes, ha sottolineato come la rapidità del progresso tecnologico rappresenti un ostacolo anche rispetto alla stipulazione di norme. A livello europeo, passi importanti sono stati fatti dall’Unione Europea, come ricordato da Marco Carlizzi della Banca Etica, che ha menzionato la prima regolamentazione sull’argomento. Tuttavia, questa regolamentazione non si applica ai sistemi difensivi, come stabilito dall’articolo 2, che distingue tra attività ad alto e basso rischio.

Anche Amnesty International, rappresentata da Tina Marinari, riconosce l'urgenza di un trattato globale contro le armi autonome. Come in passato con le armi a grappolo, è ora più che mai necessaria un'azione collettiva per contrastare le armi autonome, prive di empatia e capaci di colpire indiscriminatamente qualsiasi obiettivo.

L’aspetto legale e morale della responsabilità

Se uccidere non è mai giustificato, il diritto internazionale stabilisce tra i suoi principi fondamentali quelli di proporzionalità, non indiscriminazione e la distinzione tra obiettivi militari e civili. Tuttavia, quando si analizza la responsabilità negli attacchi, specialmente attraverso l'uso dell'intelligenza artificiale, emergono due questioni cruciali: legalità e moralità. Mentre la legalità potrebbe essere affrontata in un contesto normativo, la moralità rimane profondamente compromessa dall'uso di macchine autonome che decidono sulla vita e la morte. Come affermato da Peter Asaro, professore di storia e sociologia delle scienze presso The New School, USA, il rischio è che queste armi autonome possano evolversi in nuove forme di armi di distruzione di massa, erodendo i diritti internazionali a causa della complessità nel definire la responsabilità.

Asaro sottolinea la necessità urgente di un trattato multilaterale, distinguendo tra due tipologie di framework: il sistema proibito, che include armi imprevedibili e incontrollabili, e quello regolabile, che si riferisce a tecnologie potenzialmente dannose, ma concepite principalmente per la sicurezza e la difesa, piuttosto che per l'eliminazione di vite umane.

 

di Camilla Levis

Pubblicato in Eventi