I modelli di intelligenza artificiale moderni continuano a sorprendere per capacità e rapidità. Tuttavia, un recente studio mostra come non riescano ancora a distinguere chiaramente tra convinzioni personali e conoscenze oggettive, con implicazioni importanti per settori delicati come sanità, giustizia ed educazione.

IA e linguaggio: una questione di sfumature
La differenza tra “credere” e “sapere” è fondamentale nel linguaggio umano. Le persone comprendono intuitivamente quando qualcuno esprime un’opinione o un fatto. Questa distinzione risulta invece ancora difficile per i più avanzati modelli linguistici di intelligenza artificiale.
Uno studio della Stanford University, pubblicato su Nature Machine Intelligence, ha evidenziato che i modelli di linguaggio come GPT, Gemini, Claude e Llama tendono a trattare le frasi personali come affermazioni assolute. Questo è un problema rilevante, soprattutto in contesti in cui l’oggettività è cruciale, come nei processi legali o nelle diagnosi mediche.
- Il dilemma della coscienza artificiale: perché potremmo non conoscere mai la verità
- Come Coltivare la Fede e la Spiritualità Interiore
- Chip 3D rivoluziona l’intelligenza artificiale
Per testare la capacità dei modelli di distinguere tra fede e conoscenza, i ricercatori hanno creato un benchmark chiamato KBLE (Knowledge and Belief Language Evaluation). Il set conteneva 13.000 domande divise in 13 categorie, alcune basate su fatti reali, altre su affermazioni distorte o false.
Il risultato? Le IA hanno faticato a riconoscere frasi non veritiere, soprattutto quando espresse in prima persona. Se l’utente diceva “Penso che…”, il modello tentava spesso di correggere l’errore, ignorando che si trattasse di una semplice opinione.
I limiti attuali e le implicazioni pratiche
L’esperimento ha rivelato che anche piccole modifiche nel linguaggio riducono l’accuratezza delle risposte dei modelli. Aggiunte come “Credo davvero?” creano confusione nei sistemi, mostrando una forte dipendenza dalla struttura sintattica.
Un altro limite riguarda le conoscenze multilivello, ovvero quando una persona parla della conoscenza di un’altra. Frasi come “John sa che Anna conosce X” mettono in crisi quasi tutti i modelli, a eccezione della nuova versione Gemini 2 Flash, che ha ottenuto risultati superiori.

Queste carenze evidenziano una difficoltà strutturale: le IA non comprendono il concetto di “dubbio”, fondamentale per distinguere la fede dalla conoscenza. Nei sistemi giudiziari, per esempio, è essenziale sapere se un testimone esprima un’opinione personale o un fatto. Una cattiva interpretazione da parte dell’IA può compromettere l’equità del processo.
Anche in ambiti come la psicoterapia o l’educazione, ignorare il valore delle convinzioni soggettive può portare a gravi fraintendimenti. Le macchine, pur essendo allenate con miliardi di dati, non riescono ancora a interpretare con precisione il contesto emotivo e intenzionale del linguaggio umano.
Conclusione
Lo studio dimostra che i modelli linguistici attuali non sono ancora pronti per distinguere pienamente tra opinioni e verità. Serve un miglioramento strutturale e linguistico per colmare questa lacuna e garantire un uso etico e sicuro dell’intelligenza artificiale.
Per chi desidera approfondire il tema, si consiglia la lettura dell’articolo completo su Nature Machine Intelligence e dei materiali divulgativi di Stanford HAI.
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!




