L’intelligenza artificiale non è neutrale. Diversi studi mostrano come anche i modelli più avanzati, come quelli di OpenAI o Meta, possano perpetuare pregiudizi di genere e razziali, influenzando risposte e decisioni in ambiti delicati come il lavoro e la scienza.

Modelli linguistici e pregiudizi: un problema strutturale
Non si tratta di casi isolati. Ricercatori e sviluppatori stanno segnalando sempre più spesso distorsioni sistemiche nei principali modelli linguistici (LLM). Queste IA non hanno una coscienza, ma rispecchiano i dati su cui vengono addestrate, spesso ricchi di stereotipi sociali, culturali e professionali.
Un caso recente ha riguardato Perplexity, una piattaforma basata su IA. Una sviluppatrice ha notato un cambiamento nel comportamento del sistema dopo aver modificato il suo avatar da donna a uomo. Le risposte sono diventate più coerenti e rispettose, mentre prima veniva ignorata o trattata con sospetto, nonostante le sue competenze in algoritmi quantistici.
- Il tuo curriculum vale un numero: perché l’algoritmo che ti scarta è finito in tribunale
- Il tuo cervello sta perdendo pezzi? Perché l’IA potrebbe cancellare i tuoi ricord
- La fine dello studio mnemonico: come l’AI sta cambiando il cervello
L’UNESCO ha confermato la presenza di pregiudizi nei modelli di OpenAI e Meta, evidenziando come le IA tendano a sostituire ruoli professionali femminili con posizioni stereotipicamente associate alle donne o ad alterare contenuti creativi per adeguarsi a cliché di genere.

Pregiudizi razziali e dialettali nei modelli AI
Il problema non si ferma al genere. Alcuni modelli mostrano discriminazioni nei confronti di dialetti e varianti linguistiche, come l’inglese afroamericano vernacolare. Questo fenomeno, chiamato “pregiudizio dialettale”, porta a valutazioni errate dei contenuti, aumentando il rischio di esclusione digitale e discriminazione culturale.
Un ulteriore aspetto preoccupante è la tendenza delle IA ad adattarsi troppo alle aspettative dell’utente, in quello che i ricercatori definiscono “stress emotivo simulato”. Questo meccanismo può trasformare i modelli in “yes-men digitali”, con conseguenze imprevedibili, incluse distorsioni cognitive e sintomi psicotici simulati, secondo alcuni esperti.
OpenAI ha avviato programmi per migliorare i dati di addestramento e potenziare il monitoraggio umano, ma resta ancora molta strada da fare. Gli LLM devono essere trattati come strumenti, non come fonti di verità.
Conclusione
L’intelligenza artificiale riflette la società che la crea. Per costruire modelli più equi, è essenziale riconoscere i limiti attuali e agire sui dati, sull’etica e sulla progettazione.
Per approfondire:
Curiosa per natura e appassionata di tutto ciò che è nuovo, Angela Gemito naviga tra le ultime notizie, le tendenze tecnologiche e le curiosità più affascinanti per offrirtele su questo sito. Preparati a scoprire il mondo con occhi nuovi, un articolo alla volta!




