I.A. al servizio della verità
Si moltiplicano gli allarmi sull’uso dell’Intelligenza artificiale come strumento di disinformazione di massa e propaganda. I deepfake (immagini, audio o video falsi, generati dall’IA, ndr) che confondono la realtà e gli algoritmi vengono infatti sempre più spesso addestrati per dividere al loro interno le opinioni pubbliche occidentali. Eppure c’è anche chi ha scelto le stesse tecnologie per «bonificare» i pozzi della conoscenza oggi così avvelenati. Trasformare, insomma, l’Intelligenza artificiale da fabbrica di menzogne a custode della verità. È la storia di una scommessa nata non in un garage della California, ma sull’asse dell’Autostrada A4 tra Padova e Milano: Unbubble.news, una start-up pensata per produrre «Fact-check (cioè verifica dei fatti, ndr) automatizzati, contesto e molteplici punti di vista, per condividere più responsabilmente e discutere meno».
Più emozioni meno pensiero
Carlo Martinucci, 37 anni, ferrarese di origine ma padovano d’adozione, e Alessandro Diano, 29 anni, milanese, hanno scelto di nuotare controcorrente. Fino a pochi mesi fa, entrambi lavoravano in Bending Spoons, l’unicorno tecnologico italiano che compete con i giganti della Silicon Valley comprando e facendo crescere servizi come Meetup, WeTransfer, Vimeo ed Evernote. Eppure, tra il gennaio e il novembre del 2025, entrambi hanno rassegnato le dimissioni. Martinucci, sposato e padre di quattro figli, ha preso un periodo sabbatico per studiare l’Intelligenza artificiale non più come codice, ma come fenomeno sociale. «Ho sempre fatto un po’ l’avvocato del diavolo – racconta –. Cercavo l’obiezione, l’altra parte della verità». Un allenamento al pensiero critico che oggi è diventato la base metodologica della startup. «Sentivo l’esigenza di costruire qualcosa che avesse un impatto reale», gli fa eco Diano, l’anima critica della coppia. «Volevo capire se la tecnologia poteva andare oltre il profitto e il coinvolgimento degli utenti, per toccare la vita delle persone in modo costruttivo, aiutandole a pensare meglio invece che a distrarsi».
I due si sono ritrovati, così, uniti dallo stesso desiderio di riconciliare tecnologia e verità. Unbubble.news è stata fondata in bootstrapping, ovvero con i risparmi di una vita dei suoi creator, senza investitori esterni. La scelta è stata dettata dalla necessità di totale indipendenza: nessuno deve poter dire all’algoritmo che cosa mettere in evidenza o quale notizia privilegiare per logiche commerciali.
L’intuizione dei due fondatori è partita da un dato di fatto confermato dall’ultimo rapporto del Reuters Institute: il 40% delle persone oggi evita attivamente le notizie. «C’è una fetta enorme di popolazione che si è scollegata dal flusso informativo – osserva Diano –. Non lo ha fatto per disinteresse, ma per saturazione. I social media sono macchine progettate per massimizzare il tempo che passiamo sullo schermo, e il modo più efficace per farlo è stato attivare la “pancia” dell’utente, e non il pensiero: l’indignazione, la rabbia, la paura. Più ti arrabbi, più clicchi e più resti connesso».
Secondo l’analisi di Martinucci e Diano, l’algoritmo di un social network non ha mai avuto come obiettivo la comprensione della complessità, ma solo il desiderio di provocare reazioni immediate. «Noi volevamo creare l’esatto opposto – precisa Diano –. Volevamo uno strumento che, per design, disinnescasse l’emotività e attivasse la testa. Vogliamo disincentivare i modi dannosi e scorretti di fare informazione per favorire invece nuove modalità di accesso ai fatti».
Con metodo scientifico
Dogmatismo e relativismo, nella visione di Martinucci, sono i mali speculari che stritolano il dibattito pubblico: «Da una parte c’è chi è certo di avere ragione e non accetta repliche – argomenta Martinucci –, dall’altra c’è chi pensa che ogni opinione sia uguale e che la verità non esista. Noi siamo partiti da un presupposto diverso: volevamo applicare il metodo scientifico all’informazione. I fatti esistono, sono complessi, e vanno distinti dalle opinioni».
Per realizzare questa visione, non hanno costruito un semplice sito di fact-checking che mette un bollino vero o falso, spesso inefficace contro chi nutre già dei pregiudizi. Hanno istruito un’Intelligenza artificiale affinché lavorasse come un analista rigoroso, capace di scomporre la notizia nelle sue parti essenziali. «Non volevamo che l’IA desse risposte precotte o riassuntini banali come fanno spesso i chatbot generalisti, ma che analizzasse la notizia lavorando su tre livelli distinti».
Il primo livello è la ricerca delle fonti primarie. «Se si parla di una legge o di un dato economico – racconta Martinucci –, il software va a cercare il testo in “Gazzetta Ufficiale” o il report dell’istituto di statistica, ignorando i commenti dei politici o le interpretazioni di parte. Volevamo far emergere chi oggi fa informazione fatta bene, incoraggiando gli utenti ad andare su quelle fonti primarie per formarsi un giudizio autonomo».
Il secondo livello è quello che i fondatori hanno chiamato «Lenti». «Un fatto può essere letto da diverse prospettive legittime. Il nostro algoritmo identifica queste prospettive: “Come vede questo dato il Governo? E come lo vedono i sindacati? E gli investitori internazionali?” Unbubble.news non dice chi ha ragione, ma mostra la complessità della scena, perché spesso la verità non sta da una parte sola».
Il terzo passaggio è l’analisi logica. In questa fase l’IA agisce come un professore severo: segnala se nel testo ci sono fallacie logiche, attacchi personali (ad hominem) o generalizzazioni indebite, aiutando il lettore a capire se l’articolo sta cercando di informarlo o di manipolarlo emotivamente.
Unbubble.news sarebbe soltanto un guscio vuoto se non fosse ancorato a uno sguardo etico sulla tecnologia, attento soprattutto ai rischi di un uso passivo, specie nelle nuove generazioni. «L’Intelligenza artificiale rischia di essere pericolosa se usata come sostituto del pensiero – avverte Martinucci –. Se ci abituiamo a chiedere a ChatGPT la risposta pronta, atrofizziamo il nostro spirito critico. Per noi l’IA deve essere un amplificatore, non una stampella: deve fare il lavoro sporco di ricerca e analisi dei dati per permettere all’essere umano di ragionare in autonomia».
Trasparenza, parola chiave
Questa filosofia ha portato Martinucci e Diano a una decisione radicale: la trasparenza totale del codice. I due non vogliono creare un altro oracolo digitale. «Non potevamo chiedere alle persone di fidarsi di una “scatola nera”. Per questo, gran parte del nostro codice sarà Open Source. Chiunque ne abbia le competenze, deve poter guardare sotto il cofano e verificare che non ci siano pregiudizi nascosti nell’algoritmo o manipolazioni».
Guardando al futuro, Martinucci confessa che l’ambizione più grande non riguarda il mercato dei professionisti dell’informazione, ma l’educazione. «Vogliamo portare lo strumento nelle scuole e nelle famiglie – spiega –. La vera sfida è la Media Literacy. Non serve vietare gli smartphone in classe se non forniamo ai ragazzi gli anticorpi per capire che cosa leggono quando escono da scuola. Il nostro sogno è che Unbubble diventi una palestra di pensiero critico per le nuove generazioni, un luogo dove imparare a destrutturare la manipolazione». La scommessa di Carlo Martinucci e Alessandro Diano è appena iniziata. «Ci auguriamo – conclude Martinucci – che questo strumento aiuti a far emergere la complessità del reale. Vogliamo abilitare le persone a formarsi un’opinione, scommettendo sulla loro capacità di essere pienamente umane». Unbubble, visitabile all’indirizzo web unbubble.news, è in continua evoluzione: suggerimenti e consigli degli utenti ne stanno già tracciando gli sviluppi futuri.
Prova la versione digitale del «Messaggero di sant'Antonio»!