Una chatbot per amico

Sempre più spesso giovani e adulti cercano nelle chatbot di intelligenza artificiale non solo un aiuto per i loro compiti quotidiani, ma anche una nuova forma di compagnia.
30 Ottobre 2025 | di

In una società iperconnessa come quella in cui siamo immersi, paradossalmente siamo sempre più soli. E allora ci viene in aiuto l’Intelligenza artificiale, che però fa quel che può. Senza arrivare ai casi estremi dei ragazzi e delle ragazze che non escono mai dalle loro stanze e comunicano solo per via digitale (i primi casi furono descritti in Giappone, sotto la definizione di hikikomori), sempre più spesso giovani e adulti cercano nelle chatbot di intelligenza artificiale non solo un aiuto per i loro compiti quotidiani, ma anche una nuova forma di compagnia. Che sia ChatGPT, Gemini o qualunque altra applicazione disponibile su computer o smartphone, la modalità di funzionamento di questi sistemi, con il loro modo di rispondere in maniera immediata, puntuale e indistinguibile da quel che direbbe un essere umano, può facilmente trarci in inganno. Anche quando si sa benissimo che dall’altra parte non c’è una persona in carne e ossa, ci si può così lasciar trascinare in lunghe chiacchierate e chiedere supporto a questa entità apparentemente così saggia e informata anche per le scelte della nostra vita quotidiana. 

Adolescenti a rischio

Gli adolescenti sono da questo punto di vista particolarmente vulnerabili, e purtroppo la cronaca registra casi tragici in cui gli algoritmi che dialogavano con dei ragazzini non hanno saputo gestire implicite richieste di aiuto che non sarebbero sfuggite a un essere umano. O meglio, le hanno interpretate come se l’intenzione di farla finita fosse un obiettivo da sostenere, e non qualcosa per cui mettere in allerta i genitori o rivolgersi a personale specializzato nella gestione di queste crisi.

Il fenomeno è già molto diffuso negli Stati Uniti, ma anche in Italia stanno arrivando applicazioni specifiche che offrono sostegno alle persone con ansia, depressione o disturbi del comportamento alimentare. D’altra parte, la salute mentale vacilla non solo tra i più giovani, e i servizi di supporto psicologico faticano a tenere il passo con una domanda di intervento in continua crescita. Non ci sono professionisti sufficienti, in molti contesti culturali persiste uno stigma nei confronti di chi chiede aiuto e molti comunque non potrebbero permettersi per mancanza di tempo e denaro tutte le sedute di cui avrebbero bisogno. I servizi online basati sull’Intelligenza artificiale in questi casi possono dare una mano, ma i molti studi condotti sui sistemi a oggi disponibili mostrano che, accanto a prodotti ben studiati, ce ne sono altri potenzialmente pericolosi, per esempio perché privi di un sistema che riconosca alcuni segnali di allarme nelle parole del paziente o comunque perché non forniscono un riferimento immediato a un numero verde di primo soccorso. In più, ci sono questioni di privacy. Ma soprattutto manca l’aspetto umano della relazione terapeutica, che prima di essere terapeutica deve essere umana. Un domani alcuni di questi servizi, validati a dovere e rivolti a una popolazione selezionata, potranno anche svolgere un ruolo complementare a quello di uno specialista, ma per il momento meglio usare prudenza.

Prova la versione digitale del «Messaggero di sant'Antonio»! 

Data di aggiornamento: 30 Ottobre 2025
Lascia un commento che verrà pubblicato