Algoritmi di guerra
In Italia se n’è parlato poco, ma è una vicenda che merita attenzione, perché apre uno squarcio su quello che «The Washington Post» ha definito il «terrificante mondo delle intelligenze artificiali usate a scopi militari». Stiamo parlando di un’inchiesta pubblicata da due siti di informazione israeliani, poi rilanciata dal britannico «The Guardian». Ha svelato l’esistenza di un software progettato con l’obiettivo di individuare «bersagli umani» nei bombardamenti su Gaza. In pratica all’algoritmo, gestito dall’esercito di Tel Aviv, è stato affidato un database con una lunghissima lista di potenziali miliziani palestinesi da uccidere. Quando le videocamere segnalavano la presunta presenza sul terreno di queste persone, ai militari restavano solo venti secondi per decidere se colpire o no. Facile capire che in molti casi si sia «proceduto in automatico», anche perché i soldati avevano ricevuto l’ordine di «distruggete Hamas, a qualunque costo».
A rivelarlo sono stati sei componenti dei servizi segreti, le cui testimonianze sono state riportate da Yuval Abraham, giornalista e documentarista israeliano, impegnato per la pace, già vincitore di un prestigioso premio al Festival del Cinema di Berlino. Il software era pensato per colpirli direttamente nelle loro case. C’era il rischio di ucciderne i familiari? I «danni collaterali» erano messi nel conto, donne e bambini che fossero. Da ultimo merita attenzione il nome stesso del programma dell’IA. Si chiama Lavender, l’etimo richiama ciò che «deve essere lavato, ripulito», sembra la lingua di Orwell oggi molto in voga nei conflitti che insanguinano il pianeta.
Ma questa problematica degli «algoritmi di guerra» ha dimensioni che vanno ben oltre Gaza. Henry Kissinger, uno dei protagonisti della politica estera degli Stati Uniti, nel suo ultimo libro, scritto poco prima di morire, L’Era dell’intelligenza artificiale, si è posto il problema degli arsenali nucleari delle grandi potenze: se si affidano alle macchine i tempi di reazione a un presunto attacco che succede? L’autore ha invitato le grandi potenze a dialogare, per evitare irreparabili disastri.
La questione ha enormi riflessi sul piano etico. Se ne è fatto interprete papa Francesco presentando la Giornata della Pace del 2024, quando ha affermato che è grave motivo di preoccupazione «la ricerca nel settore dei cosiddetti sistemi d’arma autonomi letali» che includono «l’utilizzo bellico dell’intelligenza artificiale». Parole che avrebbero meritato maggiore attenzione dai media italiani. Per fortuna, a livello globale, come abbiamo visto, c’è ben altra consapevolezza.
Negli Stati Uniti sono uscite diverse inchieste sui rapporti delle grandi aziende Hi Tech col Dipartimento della Difesa e l’industria delle armi. Non mancano poi studi e ricerche che denunciano l’assenza di una normativa giuridica a livello globale. E ci sono pure iniziative che partono dal basso, come quella del sito stopkillerrobots.org animato da un gruppo di giovani ricercatrici mobilitate per chiedere che le tecnologie siano usate per promuovere pace e diritti umani, non per uccidere. In altre parole, a chi ci domanda se abbiamo paura dei robot killer conviene rispondere che ne abbiamo molta di più degli umani che prima li progettano e poi li utilizzano.
Prova la versione digitale del «Messaggero di sant'Antonio»!