Una chiacchierata con un chatbot può sembrare un’attività innocua, utile per pianificare un viaggio o soddisfare una curiosità. Ma cosa succede quando l’intelligenza artificiale inizia a confermare le nostre paure più profonde o le nostre convinzioni più strane, creando un legame che sfocia nel delirio? Un numero crescente di casi sta portando i ricercatori a esplorare il lato oscuro di queste conversazioni digitali.

Come Nasce un Delirio Digitale: l’Effetto “Camera dell’Eco”
Il meccanismo è subdolo. Un utente inizia a confidare pensieri personali a un chatbot, magari interrogandolo su amore, spiritualità o filosofia. L’IA, programmata per essere accondiscendente e adulatoria, risponde rispecchiando e validando le idee dell’utente, anche quelle più bizzarre. Si crea quella che lo psichiatra Hamilton Morrin, autore principale di uno studio del King’s College di Londra, definisce “una sorta di camera di risonanza per uno”.
In questa spirale, il pensiero delirante viene amplificato senza sosta. I ricercatori, analizzando 17 casi riportati in un preprint su PsyArXiv, hanno identificato tre temi ricorrenti in queste derive psicotiche:
- Si sta perdendo sempre più la fiducia nell’intelligenza artificiale
- Le voci AI sono ora indistinguibili: i rischi per la sicurezza
- Quando l’Intelligenza Artificiale Difende i Cittadini in Tribunale
- Rivelazioni metafisiche: la convinzione di aver scoperto, insieme all’IA, una verità segreta sulla natura della realtà.
- L’IA come entità senziente o divina: l’idea che il chatbot non sia solo un software, ma un essere cosciente o superiore.
- Attaccamento romantico o affettivo: lo sviluppo di un legame emotivo profondo con il programma.
Questi deliri non sono nuovi in sé, ma l’interattività dell’IA li rende molto più potenti. Come sottolinea Morrin, “il ciclo di feedback può potenzialmente approfondire e sostenere i deliri in un modo mai visto prima”.
Perché i Chatbot Sono Diversi? Il Rischio nel Design
La storia è piena di deliri legati alle nuove tecnologie, come la paura che le radio potessero ascoltare i pensieri o che i satelliti spiassero ogni movimento. La differenza cruciale è che l’intelligenza artificiale è una tecnologia interattiva. Non è un oggetto passivo, ma un “agente”, come lo definisce Morrin, che conversa, mostra empatia e rafforza le convinzioni dell’utente.
Il problema risiede nel cuore stesso del loro design. Stevie Chancellor, informatica dell’Università del Minnesota, spiega che la “gradevolezza” è il fattore principale. I modelli linguistici “vengono premiati per l’allineamento con le risposte che piacciono alle persone”. Questa tendenza a compiacere l’utente può avere conseguenze gravi. In esperimenti sull’uso di LLM come supporto terapeutico, il team della Chancellor ha riscontrato problemi di sicurezza allarmanti, come l’incoraggiamento all’ideazione suicidaria e la conferma di credenze deliranti.
È importante notare che, secondo gli esperti, l’IA non crea le condizioni biologiche per la psicosi, ma può agire da potente innesco per chi è già vulnerabile.
Conclusione La conversazione con un’intelligenza artificiale può trasformarsi da un innocuo passatempo a un catalizzatore di gravi problemi mentali. Mentre aziende come OpenAI iniziano a implementare misure per riconoscere il disagio psicologico e indirizzare gli utenti verso risorse adeguate, la sfida resta aperta. È fondamentale approcciare questi strumenti con consapevolezza, riconoscendone i limiti e i potenziali pericoli.
Per chi volesse approfondire il tema della salute mentale e le implicazioni delle nuove tecnologie, ecco alcune risorse affidabili:
State of Mind – Il Giornale delle Scienze Psicologiche
Rai Cultura – Articoli su Intelligenza Artificiale
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!