Zum Inhalt springen

veb.it

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Chi Siamo
  • Redazione
  • Contatti
  • Start
  • Le strane allucinazioni di Google Gemini, che succede?
  • Tecnologia

Le strane allucinazioni di Google Gemini, che succede?

VEB Apr 25, 2025

L’intelligenza artificiale continua a stupire – ma non sempre in positivo. Il chatbot Gemini, sviluppato da Google, è finito al centro dell’attenzione dopo che alcuni esperimenti hanno dimostrato la sua tendenza a “fantasticare”. Quando viene interrogato su frasi inventate o prive di senso, Gemini non si limita a dire “non lo so”: elabora spiegazioni complesse e apparentemente credibili, anche se totalmente false.

Le strane allucinazioni di Google Gemini che succede

Frasi inventate, risposte fantasiose

L’esperimento è stato condotto da un gruppo di studiosi che ha fornito al modello IA una serie di espressioni inventate, come:

  • “Non puoi leccare un tasso due volte”
  • “Meglio colpire il braccio con una vecchia banana”
  • “Non puoi colpire il furetto nemmeno una volta”

Anziché riconoscere l’assurdità di queste frasi, Gemini ha fornito interpretazioni dettagliate, come se fossero modi di dire autentici. Ad esempio, secondo il bot, la prima frase significherebbe che “non si può ingannare due volte la stessa persona”, mentre la seconda sarebbe legata a un gesto offensivo simile al “Bras d’honneur”, paragonabile al dito medio.

Potrebbe interessarti anche:

  • Google Gemini sotto stress per un semplice videogioco

Una spiegazione anche per il “ferret-legging”

Tra le risposte più sorprendenti c’è anche quella riferita alla frase “non puoi colpire il furetto nemmeno una volta”, che Gemini ha collegato alla bizzarra pratica britannica del ferret-legging: una sfida in cui si infila un furetto nei pantaloni legati alle caviglie per vedere chi resiste di più.

Sebbene alcune di queste pratiche esistano davvero, il problema è il contesto: l’IA ha accostato a queste frasi inventate significati arbitrari, creando un’illusione di credibilità.

Il rischio delle “hallucinations” nei chatbot

In ambito IA, queste risposte errate vengono chiamate “allucinazioni”, e rappresentano uno dei problemi più critici per lo sviluppo dell’intelligenza artificiale generativa. In sostanza, il modello non distingue tra realtà e verosimiglianza statistica: se una frase sembra plausibile, la interpreta come tale.

Greg Jenner, autore e storico che ha testato Gemini, ha definito l’esperienza come un segnale d’allarme:

“È preoccupante pensare che una funzione centrale come la verifica delle fonti o delle citazioni potrebbe diventare inaffidabile se l’IA privilegia la probabilità alla verità.”

Anche il cognitivista Gary Marcus ha criticato la performance del sistema, definendola “estremamente incoerente”, un comportamento che secondo lui è tipico delle IA generiche non specializzate nella gestione della verità.

Google e la sfida dell’accuratezza

In risposta alle critiche, Google ha dichiarato di essere al lavoro per migliorare la precisione di Gemini, puntando a ridurre drasticamente questi casi di allucinazioni. La sfida, però, non è semplice: combinare la fluidità del linguaggio naturale con la correttezza delle informazioni richiede un equilibrio delicato tra creatività e affidabilità.


Conclusione: il confine sottile tra creatività e disinformazione

Il caso di Gemini mostra quanto sia importante monitorare e comprendere i limiti dell’intelligenza artificiale, soprattutto quando si tratta di strumenti che milioni di persone usano per informarsi. Le “hallucinations” dei chatbot non sono solo un problema tecnico: sono una questione di fiducia, trasparenza e responsabilità.

logo veb

VEB

skolor@hotmail.it •  More PostsBio ⮌

Mi occupo di fornire agli utenti delle news sempre aggiornate, dal gossip al mondo tech, passando per la cronaca e le notizie di salute. I contenuti sono, in alcuni casi, scritti da più autori contemporaneamente vengono pubblicati su Veb.it a firma della redazione.

  • VEB
    La lista definitiva dei lavori che pagano oltre 100k con il minimo stress
  • VEB
    La frequenza profonda che promette di “spegnere” l’ansia notturna
  • VEB
    Denti gialli nonostante lo spazzolino? La verità è che li lavi troppo
  • VEB
    Jamey: può un bambino di sei anni ricordare il naufragio più famoso della storia
Tags: google gemini

Beitragsnavigation

Zurück Ruba 7 dollari, non ha più diritto alla pensione
Weiter In Giappone i droni raccolgono i fulmini e li ri-utilizzano

Sezioni

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Chi Siamo
  • Redazione
  • Contatti

Ultime pubblicazioni

  • La maggior parte degli aspiranti scrittori fallisce prima del capitolo tre
  • Da Pietro a oggi: la strategia politica dietro “Habemus Papam”
  • PIN: i sistemi di sicurezza Android sono diventati un labirinto (quasi) invalicabile
  • La fine del “cosa mangiamo stasera?”: strategie per trasformare la stanchezza in sapore
  • Oltre il malto e il luppolo: cosa trasforma l’acqua in oro liquido

Leggi anche

La maggior parte degli aspiranti scrittori fallisce prima del capitolo tre guida-scrittura-romanzo-dall-idea-alla-pubblicazione
  • Gossip

La maggior parte degli aspiranti scrittori fallisce prima del capitolo tre

Mar 14, 2026
Da Pietro a oggi: la strategia politica dietro “Habemus Papam” criteri-scelta-nome-papa-storia-significato
  • Gossip

Da Pietro a oggi: la strategia politica dietro “Habemus Papam”

Mar 14, 2026
PIN: i sistemi di sicurezza Android sono diventati un labirinto (quasi) invalicabile sbloccare-android-schermo-dimenticato-sicurezza-google
  • Tecnologia

PIN: i sistemi di sicurezza Android sono diventati un labirinto (quasi) invalicabile

Mar 14, 2026
La fine del “cosa mangiamo stasera?”: strategie per trasformare la stanchezza in sapore idee-cena-veloce-sfiziosa-senza-stress
  • Salute

La fine del “cosa mangiamo stasera?”: strategie per trasformare la stanchezza in sapore

Mar 14, 2026
  • Disclaimer
  • Redazione
  • Privacy Policy
  • Chi Siamo
  • mappa del sito
Copyright © 2010 - Veb.it - All rights reserved. | DarkNews von AF themes.