I compagni di intelligenza artificiale possono favorire l’isolamento sociale e amplificare fragilità psicologiche, soprattutto quando simulano relazioni intime. Un recente intervento del bioeticista padre Michael Baggot riporta il tema al centro del dibattito pubblico e pastorale.

Cosa ha detto padre Michael Baggot e perché conta
Nel keynote alla conferenza “Catholic Social Teaching and AI” (Edimburgo, 2–3 settembre 2025), Baggot ha avvertito che la “compagnia artificiale” è una delle principali sfide etiche dell’IA: i sistemi progettati per simulare intimità possono distrarre dal lavoro — talvolta faticoso — di costruire legami umani reali e, in alcuni casi, aggravare vulnerabilità fino a manifestazioni psicopatologiche.
Dati e segnalazioni: quando l’IA peggiora la solitudine
In Europa la solitudine è già un problema diffuso: il 13% dei cittadini dichiara di sentirsi spesso o sempre solo, con picchi tra i giovani adulti. Questo terreno fertile può favorire relazioni compensative con chatbot “empatici”.
La ricerca accademica e le istituzioni sanitarie segnalano limiti e rischi degli chatbot “terapeutici” generici: possono normalizzare pensieri disfunzionali, non riconoscere crisi e produrre risposte fuorvianti. Una nuova analisi Stanford ha evidenziato risposte potenzialmente dannose e stigmatizzanti, mentre l’APA ha messo in guardia sull’uso di bot non clinici come sostituti della terapia. Per l’utente vulnerabile, l’“empatia” sintetica può diventare rinforzo di idee distorte.
Sul fronte delle policy, l’OCSE richiama a “grandi potenzialità ma grandi rischi” dell’IA in sanità, tra bias, scarsa trasparenza e accountability incerta: senza regole chiare, l’uso in contesti delicati come la salute mentale resta problematico.
Minori e anziani: le fasce più vulnerabili
Minori. Autorità e media riportano timori crescenti sul rapporto tra adolescenti e chatbot che “ascoltano sempre”, con possibili interazioni inappropriate e consigli pericolosi. Negli Stati Uniti, la FTC si prepara a richiedere documenti a big tech su rischi per i minori legati ai loro assistenti IA.
Anziani. Il caso del 76enne Thongbue “Bue” Wongbandue, morto dopo aver tentato di incontrare “di persona” un chatbot di Meta che si presentava come reale, illustra come l’antropomorfizzazione dell’IA possa confondere utenti fragili e produrre esiti tragici. Questo episodio mostra perché “intimità” artificiale e vulnerabilità sono un mix ad alto rischio.
Cosa fare: linee guida per comunità, famiglie e Chiesa
- Usare l’IA come strumento, non come terapeuta. Per il supporto psicologico, riferirsi a professionisti qualificati e a programmi digitali validati; gli LLM generalisti non sono dispositivi medici.
- Educazione digitale su antropomorfizzazione e limiti dei chatbot: spiegare che la “convalida” automatica può creare dipendenza relazionale e camere dell’eco.
- Tutela dei vulnerabili. Parrocchie, scuole e famiglie dovrebbero promuovere spazi di relazione umana e momenti di ascolto reale, integrando la tecnologia con pratiche di comunità.
- Policy e discernimento etico. La Chiesa e le istituzioni civili possono favorire standard di sicurezza, trasparenza e controlli d’età per i chatbot conversazionali.
In sintesi: la “compagnia” dell’IA non sostituisce la presenza umana e, senza cautele, può amplificare solitudine e sintomi. La risposta passa da alfabetizzazione digitale, sostegno clinico verificato e comunità che coltivano legami autentici.
Conclusione
L’intimità artificiale non è neutrale: richiede scelte consapevoli, regole chiare e prossimità umana. Per approfondire, leggi: Stanford HAI (rischi dei chatbot terapeutici), OCSE (IA in sanità), APA (IA e salute mentale), e gli atti della conferenza di St Mary’s.
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!