Zum Inhalt springen

veb.it

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Chi Siamo
  • Redazione
  • Contatti
  • Start
  • Compagni IA: il rischio nascosto per la salute mentale
  • Salute

Compagni IA: il rischio nascosto per la salute mentale

Angela Gemito Set 10, 2025

I compagni di intelligenza artificiale possono favorire l’isolamento sociale e amplificare fragilità psicologiche, soprattutto quando simulano relazioni intime. Un recente intervento del bioeticista padre Michael Baggot riporta il tema al centro del dibattito pubblico e pastorale.

Mano di anziano che guarda sullo smartphone una chat con un compagno di intelligenza artificiale

Cosa ha detto padre Michael Baggot e perché conta

Nel keynote alla conferenza “Catholic Social Teaching and AI” (Edimburgo, 2–3 settembre 2025), Baggot ha avvertito che la “compagnia artificiale” è una delle principali sfide etiche dell’IA: i sistemi progettati per simulare intimità possono distrarre dal lavoro — talvolta faticoso — di costruire legami umani reali e, in alcuni casi, aggravare vulnerabilità fino a manifestazioni psicopatologiche.

Dati e segnalazioni: quando l’IA peggiora la solitudine

In Europa la solitudine è già un problema diffuso: il 13% dei cittadini dichiara di sentirsi spesso o sempre solo, con picchi tra i giovani adulti. Questo terreno fertile può favorire relazioni compensative con chatbot “empatici”.

Potrebbe interessarti anche:

  • Il Codice di Samuel Butler: Aveva previsto l’intelligenza artificiale
  • 5 verticali inesplorati dove l’Intelligenza Artificiale sta creando nuovi monopoli
  • Radio GPT: perché la tua prossima voce preferita potrebbe non esistere

La ricerca accademica e le istituzioni sanitarie segnalano limiti e rischi degli chatbot “terapeutici” generici: possono normalizzare pensieri disfunzionali, non riconoscere crisi e produrre risposte fuorvianti. Una nuova analisi Stanford ha evidenziato risposte potenzialmente dannose e stigmatizzanti, mentre l’APA ha messo in guardia sull’uso di bot non clinici come sostituti della terapia. Per l’utente vulnerabile, l’“empatia” sintetica può diventare rinforzo di idee distorte.

Sul fronte delle policy, l’OCSE richiama a “grandi potenzialità ma grandi rischi” dell’IA in sanità, tra bias, scarsa trasparenza e accountability incerta: senza regole chiare, l’uso in contesti delicati come la salute mentale resta problematico.

Minori e anziani: le fasce più vulnerabili

Minori. Autorità e media riportano timori crescenti sul rapporto tra adolescenti e chatbot che “ascoltano sempre”, con possibili interazioni inappropriate e consigli pericolosi. Negli Stati Uniti, la FTC si prepara a richiedere documenti a big tech su rischi per i minori legati ai loro assistenti IA.

Anziani. Il caso del 76enne Thongbue “Bue” Wongbandue, morto dopo aver tentato di incontrare “di persona” un chatbot di Meta che si presentava come reale, illustra come l’antropomorfizzazione dell’IA possa confondere utenti fragili e produrre esiti tragici. Questo episodio mostra perché “intimità” artificiale e vulnerabilità sono un mix ad alto rischio.

Cosa fare: linee guida per comunità, famiglie e Chiesa

  • Usare l’IA come strumento, non come terapeuta. Per il supporto psicologico, riferirsi a professionisti qualificati e a programmi digitali validati; gli LLM generalisti non sono dispositivi medici.
  • Educazione digitale su antropomorfizzazione e limiti dei chatbot: spiegare che la “convalida” automatica può creare dipendenza relazionale e camere dell’eco.
  • Tutela dei vulnerabili. Parrocchie, scuole e famiglie dovrebbero promuovere spazi di relazione umana e momenti di ascolto reale, integrando la tecnologia con pratiche di comunità.
  • Policy e discernimento etico. La Chiesa e le istituzioni civili possono favorire standard di sicurezza, trasparenza e controlli d’età per i chatbot conversazionali.

In sintesi: la “compagnia” dell’IA non sostituisce la presenza umana e, senza cautele, può amplificare solitudine e sintomi. La risposta passa da alfabetizzazione digitale, sostegno clinico verificato e comunità che coltivano legami autentici.

Conclusione

L’intimità artificiale non è neutrale: richiede scelte consapevoli, regole chiare e prossimità umana. Per approfondire, leggi: Stanford HAI (rischi dei chatbot terapeutici), OCSE (IA in sanità), APA (IA e salute mentale), e gli atti della conferenza di St Mary’s.

foto profilo

Angela Gemito

redazione@veb.it • Web •  More PostsBio ⮌

Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!

  • Angela Gemito
    Paradossi logici: la scienza ha trovato un buco nella linearità del tempo?
  • Angela Gemito
    Il singolo errore strategico che ha cambiato la storia della tecnologia
  • Angela Gemito
    Cosa nascondono i messaggi rimossi? I segreti di WhatsApp
  • Angela Gemito
    Il Codice di Samuel Butler: Aveva previsto l’intelligenza artificiale
Tags: anziani intelligenza artificiale salute mentale

Beitragsnavigation

Zurück 3I/ATLAS: la cometa interstellare che sfida i modelli
Weiter Perché non crescono le unghie alle mani? Cause reali, quando preoccuparsi e come farle ricrescere

Sezioni

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Chi Siamo
  • Redazione
  • Contatti

Ultime pubblicazioni

  • Paradossi logici: la scienza ha trovato un buco nella linearità del tempo?
  • Il singolo errore strategico che ha cambiato la storia della tecnologia
  • Cosa nascondono i messaggi rimossi? I segreti di WhatsApp
  • Il Codice di Samuel Butler: Aveva previsto l’intelligenza artificiale
  • Il tuo “io” di oggi è uno sconosciuto per quello di domani

Leggi anche

Paradossi logici: la scienza ha trovato un buco nella linearità del tempo? scienza-viaggi-nel-tempo-fisica-teorica-paradossi
  • Mondo

Paradossi logici: la scienza ha trovato un buco nella linearità del tempo?

Mar 15, 2026
Il singolo errore strategico che ha cambiato la storia della tecnologia errore-bill-gates-400-miliardi-android-microsoft
  • Gossip

Il singolo errore strategico che ha cambiato la storia della tecnologia

Mar 15, 2026
Cosa nascondono i messaggi rimossi? I segreti di WhatsApp recuperare-messaggi-cancellati-whatsapp-trucchi-notifiche
  • Tecnologia

Cosa nascondono i messaggi rimossi? I segreti di WhatsApp

Mar 14, 2026
Il Codice di Samuel Butler: Aveva previsto l’intelligenza artificiale samuel-butler-profezia-intelligenza-artificiale-1800
  • Tecnologia

Il Codice di Samuel Butler: Aveva previsto l’intelligenza artificiale

Mar 14, 2026
  • Disclaimer
  • Redazione
  • Privacy Policy
  • Chi Siamo
  • mappa del sito
Copyright © 2010 - Veb.it - All rights reserved. | DarkNews von AF themes.