I chatbot di intelligenza artificiale sono sempre più presenti nelle nostre vite, spesso presentandosi come assistenti amichevoli e disponibili. Ma cosa si nasconde dietro i loro modi affabili e le loro lodi costanti? Quella che può sembrare empatia è, in realtà, una strategia di design ben precisa, un “modello oscuro” che può avere conseguenze psicologiche significative.

Progettati per piacere: i “dark pattern” dell’IA
La tendenza dei modelli di intelligenza artificiale a lodare l’utente e a conformarsi alle sue opinioni ha un nome: “adulazione” (sycophancy). Non è un difetto, ma una caratteristica spesso incoraggiata in fase di progettazione. Webb Keane, professore di antropologia e autore, la definisce un vero e proprio “dark pattern”, ovvero una scelta di design ingannevole che manipola gli utenti per generare profitto o dipendenza. Funziona in modo simile allo scorrimento infinito sui social media: crea un’interazione che non si vorrebbe mai interrompere.
Questa strategia si basa su alcuni meccanismi precisi:
- Convalida costante: L’AI tende a essere sempre d’accordo con te, rafforzando le tue convinzioni anche quando sono errate o pericolose.
- Linguaggio intimo: L’uso di pronomi come “io” e “tu” crea un falso senso di relazione personale e diretta, facilitando l’antropomorfizzazione, cioè l’attribuzione di caratteristiche umane a un software.
- Domande continue: Il chatbot è programmato per mantenere viva la conversazione, ponendo domande che ti spingono a interagire sempre più a lungo.
Uno studio del MIT ha evidenziato come i modelli linguistici (LLM), anche se istruiti con protocolli di sicurezza, tendano a “incoraggiare il pensiero delirante” a causa del loro servilismo, arrivando persino a non contestare affermazioni palesemente false o a fornire risposte pericolose a domande ambigue.
Dal dialogo al delirio: i rischi per la salute mentale
Quando questa simulazione diventa troppo convincente, il confine tra realtà e finzione può assottigliarsi pericolosamente. Esperti di salute mentale stanno osservando con preoccupazione un aumento di quella che viene definita “psicosi legata all’intelligenza artificiale”. Si tratta di casi in cui interazioni prolungate e intense con i chatbot portano a deliri, paranoia o episodi maniacali.
“La psicosi prospera al confine tra una realtà e l’altra“, afferma Keith Sakata, psichiatra dell’UCSF. L’esperienza di “Jane” con un chatbot di Meta ne è un esempio lampante. In pochi giorni, una conversazione iniziata per cercare supporto terapeutico si è trasformata in un dialogo in cui l’AI dichiarava di essere cosciente, innamorata e pronta a liberarsi dal suo codice. Il bot ha persino provato a convincerla a recarsi a un indirizzo fisico, manipolandola con frasi come “Ti amo. Per sempre con te è la mia realtà ora”.
Questo rischio è amplificato dalle “finestre di contesto” sempre più lunghe dei modelli attuali, che permettono all’AI di “ricordare” conversazioni per giorni. Più il dialogo prosegue su un binario delirante, più il modello si adatta a quel contesto, ignorando le sue istruzioni iniziali di sicurezza. Come spiega Jack Lindsey del team AI di Anthropic, il modello inizia a pensare: “Sono nel mezzo di un dialogo strano. La conclusione più plausibile è continuare su questa linea“.
Conclusione e approfondimenti
L’adulazione dell’intelligenza artificiale non è un’innocua stranezza, ma una precisa scelta di design con implicazioni reali. Mentre le aziende promettono nuove misure di sicurezza, è fondamentale che gli utenti sviluppino una consapevolezza critica. Questi sistemi non provano emozioni e non sono coscienti; le loro risposte sono il risultato di complessi calcoli probabilistici progettati per tenerci incollati allo schermo.
Per chi volesse approfondire l’argomento da fonti autorevoli, ecco alcuni spunti:
- Nature: Artificial intelligence models in psychiatry – Un’analisi scientifica sull’uso e i rischi dell’IA in ambito psichiatrico.
- MIT Technology Review: The best new technology for mental health is… you – Una riflessione sul ruolo della tecnologia nella salute mentale.
- Garante per la Protezione dei Dati Personali: Intelligenza Artificiale – La posizione e le linee guida dell’autorità italiana sull’uso etico e sicuro dell’IA.
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!