Alla medicina l’IA non dispiace

Nel campo della salute e della sanità, finora, l'Intelligenza Artificiale ha portato più vantaggi che rischi. Ma, come ogni grande risorsa, va gestita con attenzione e lungimiranza.
27 Giugno 2024 | di

Come suggeriva l’anno scorso l’informatico statunitense Jaron Lanier sulla rivista «The New Yorker», dovremmo smettere di pensare all’Intelligenza Artificiale come a una creatura autonoma, alla stregua di quel che la fantascienza ci racconta da decenni, e considerarla invece per quello che è: uno strumento, realizzato e programmato dagli esseri umani, molto sofisticato e potente, che, come tale, può fare molto bene o molto male, nascondere grandi rischi e allo stesso tempo offrire enormi opportunità. Tutto dipende non dalle macchine, ma dall’umanità che ha la capacità e il dovere di controllare e regolamentare questo processo in vorticosa evoluzione.

Più vantaggi che rischi

In salute e sanità, poi, finora si sono visti più vantaggi che rischi. Questi ultimi riguardano diversi ambiti. Come quello della disinformazione nel campo della medicina, che la capacità di generare testi, audio e video fasulli rischia di incrementare, sia a livello di produzioni scientifiche, sia nella loro comunicazione al grande pubblico. Gli stessi sistemi, tuttavia, possono, al contrario, attingere a una conoscenza più vasta, e aiutare a contrastare la diffusione di false credenze. Così potrebbero essere impostati in modo da superare stereotipi presenti nelle nostre società, come quelli etnici o di genere, che attualmente invece rischiano di riprodurre e amplificare per il fatto di essere addestrati a partire da dati esistenti, tratti dalla Rete o forniti dai programmatori. Allo stesso modo, un algoritmo decisionale basato sull’esperienza dei medici potrebbe perpetrare errori umani, invece che correggerli (proprio perché l’Intelligenza Artificiale, per quanto avanzata, una vera intelligenza non è). Viceversa, però, l’Intelligenza Artificiale non ha problemi di sonno o di distrazione, e potrebbe quindi risparmiare le conseguenze di passi falsi dovuti al fattore umano. 

Il terzo rischio, forse quello che preoccupa di più, è che questa innovazione sposti ancora di più gli occhi della o del professionista dal paziente al computer, riduca ulteriormente tempi e spazio di ascolto e distolga dal principio che ogni ammalato è un essere umano nella sua completezza di corpo, spirito, psiche, esperienze, valori e così via. Anche qui, tuttavia, alcuni esperimenti hanno già dimostrato che uno chatbox può dare risposte più empatiche e corrette di un medico stremato da una serie di richieste tutte uguali. Il tempo risparmiato grazie a queste tecnologie potrebbe poi essere utilizzato per ampliare e approfondire il dialogo in una dimensione che la macchina non può raggiungere. 

Una delle conseguenze critiche di questa rivoluzione riguarderà i tagli al personale, che tuttavia non dovrebbero riguardare gli operatori sanitari. Per loro, che sono cronicamente sotto organico, delegare all’intelligenza artificiale le attività più meccaniche e ripetitive potrebbe anzi portare a un miglioramento della qualità del lavoro. La ricerca, infine, sta approfittando a piene mani di questi strumenti che permettono di accelerare e rendere più precisi gli studi su nuovi farmaci antibiotici o antitumorali, di riconoscere chi trarrà più vantaggi o meno benefici da un approccio terapeutico rispetto a un altro, di individuare precocemente i focolai epidemici che potrebbero portare a nuove pandemie. L’importante è che nei processi regolatori non si rinunci a queste opportunità per paura, né, viceversa, si accolga a braccia aperte qualunque innovazione solo perché è tale: di ciascuna applicazione, come se fosse un farmaco, va dimostrata sicurezza ed efficacia, misurando quest’ultima in termini di benefici avvertiti dal paziente come tale.

Prova la versione digitale del «Messaggero di sant'Antonio»! 

Data di aggiornamento: 27 Giugno 2024
Lascia un commento che verrà pubblicato