Se l’IA investe a Wall Street
Ai primi di aprile un’ondata di panico ha travolto i mercati finanziari di tutto il mondo. La causa è nota. I dazi decisi dall’amministrazione Trump, imposti sul resto del mondo. Il crollo delle Borse è stato vorticoso e si è arrestato solo quando il presidente americano ha annunciato una pausa di 90 giorni nella loro applicazione. Ciò che però è sfuggito a molti osservatori sono le modalità con cui sono avvenute le vendite in Borsa. In Italia le ha rivelate il quotidiano economico «Il Sole 24 Ore», informandoci che nei giorni caldi della crisi ben il 74% dei volumi di compravendita dei future è stato gestito a Wall Street da robot trader, senza alcun controllo umano. Strumenti, questi, programmati per reagire tempestivamente alle notizie (in alcuni casi false) riguardanti le fluttuazioni dei mercati e a prendere decisioni con velocità impensabili per delle persone in carne e ossa. In poche parole, prima abbiamo affidato un enorme potere sulla vita economica del Pianeta alla finanza e poi lo abbiamo delegato alle macchine. C’è veramente da fare i complimenti all’umanità. Ma, soprattutto, c’è da augurarsi che simili meccanismi vengano al più presto regolamentati in altri settori, a cominciare da quello bellico.
La questione era stata posta con straordinaria chiarezza da papa Francesco ai leader del G7 lo scorso anno in Italia. Ecco le sue esatte parole: «In un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano». Considerazioni di scottante attualità visto quanto accaduto in Ucraina e a Gaza, dove droni e missili guidati da software hanno colpito civili in base a decisioni prese da algoritmi.
Ma il contesto diventa ancora più inquietante alla luce di un rapporto presentato a febbraio, per un centro studi, con sede a Londra, che si occupa di sicurezza nucleare, da una ricercatrice italiana, Alice Saltini. Riporta, tra le altre cose, una dichiarazione fatta nell’ottobre scorso da un generale dell’aeronautica del Comando responsabile dell’arsenale nucleare degli Stati Uniti, secondo il quale l’intelligenza artificiale è ormai coinvolta nei «meccanismi di raccolta e analisi dei dati» che stanno alla base dell’uso di queste armi. E quali sono i problemi se le scelte operative le fanno gli algoritmi? Alice Saltini ne indica diversi: dai rischi connessi ad attacchi informatici a eventuali «allucinazioni» che potrebbero far credere alle macchine che sia in atto un attacco nemico mentre magari è in corso solo una tempesta nell’atmosfera.
L’argomento inquietava pure Henry Kissinger, già protagonista della politica estera Usa, che in uno dei suoi ultimi libri aveva lanciato l’allarme auspicando un accordo sul tema tra le grandi potenze, per evitare incidenti catastrofici. Che dire allora? Restano le raccomandazioni di Francesco: tutti gli strumenti possono essere arricchenti se usati per il «bene comune», da una «sana politica» e non lasciati operare autonomamente.
Prova la versione digitale del «Messaggero di sant'Antonio»!