Vai al contenuto

veb.it

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Italia
  • Chi Siamo
  • Redazione
  • Casa
  • Le strane allucinazioni di Google Gemini, che succede?
  • Tecnologia

Le strane allucinazioni di Google Gemini, che succede?

VEB Apr 25, 2025

L’intelligenza artificiale continua a stupire – ma non sempre in positivo. Il chatbot Gemini, sviluppato da Google, è finito al centro dell’attenzione dopo che alcuni esperimenti hanno dimostrato la sua tendenza a “fantasticare”. Quando viene interrogato su frasi inventate o prive di senso, Gemini non si limita a dire “non lo so”: elabora spiegazioni complesse e apparentemente credibili, anche se totalmente false.

Le strane allucinazioni di Google Gemini che succede

Frasi inventate, risposte fantasiose

L’esperimento è stato condotto da un gruppo di studiosi che ha fornito al modello IA una serie di espressioni inventate, come:

  • “Non puoi leccare un tasso due volte”
  • “Meglio colpire il braccio con una vecchia banana”
  • “Non puoi colpire il furetto nemmeno una volta”

Anziché riconoscere l’assurdità di queste frasi, Gemini ha fornito interpretazioni dettagliate, come se fossero modi di dire autentici. Ad esempio, secondo il bot, la prima frase significherebbe che “non si può ingannare due volte la stessa persona”, mentre la seconda sarebbe legata a un gesto offensivo simile al “Bras d’honneur”, paragonabile al dito medio.

Potrebbe interessarti anche:

  • Google Gemini sotto stress per un semplice videogioco

Una spiegazione anche per il “ferret-legging”

Tra le risposte più sorprendenti c’è anche quella riferita alla frase “non puoi colpire il furetto nemmeno una volta”, che Gemini ha collegato alla bizzarra pratica britannica del ferret-legging: una sfida in cui si infila un furetto nei pantaloni legati alle caviglie per vedere chi resiste di più.

Sebbene alcune di queste pratiche esistano davvero, il problema è il contesto: l’IA ha accostato a queste frasi inventate significati arbitrari, creando un’illusione di credibilità.

Il rischio delle “hallucinations” nei chatbot

In ambito IA, queste risposte errate vengono chiamate “allucinazioni”, e rappresentano uno dei problemi più critici per lo sviluppo dell’intelligenza artificiale generativa. In sostanza, il modello non distingue tra realtà e verosimiglianza statistica: se una frase sembra plausibile, la interpreta come tale.

Greg Jenner, autore e storico che ha testato Gemini, ha definito l’esperienza come un segnale d’allarme:

“È preoccupante pensare che una funzione centrale come la verifica delle fonti o delle citazioni potrebbe diventare inaffidabile se l’IA privilegia la probabilità alla verità.”

Anche il cognitivista Gary Marcus ha criticato la performance del sistema, definendola “estremamente incoerente”, un comportamento che secondo lui è tipico delle IA generiche non specializzate nella gestione della verità.

Google e la sfida dell’accuratezza

In risposta alle critiche, Google ha dichiarato di essere al lavoro per migliorare la precisione di Gemini, puntando a ridurre drasticamente questi casi di allucinazioni. La sfida, però, non è semplice: combinare la fluidità del linguaggio naturale con la correttezza delle informazioni richiede un equilibrio delicato tra creatività e affidabilità.


Conclusione: il confine sottile tra creatività e disinformazione

Il caso di Gemini mostra quanto sia importante monitorare e comprendere i limiti dell’intelligenza artificiale, soprattutto quando si tratta di strumenti che milioni di persone usano per informarsi. Le “hallucinations” dei chatbot non sono solo un problema tecnico: sono una questione di fiducia, trasparenza e responsabilità.

logo veb

VEB

skolor@hotmail.it •  More PostsBio ⮌

Mi occupo di fornire agli utenti delle news sempre aggiornate, dal gossip al mondo tech, passando per la cronaca e le notizie di salute. I contenuti sono, in alcuni casi, scritti da più autori contemporaneamente vengono pubblicati su Veb.it a firma della redazione.

  • VEB
    https://www.veb.it/author/marco
    Perchè quando si smette di fumare si ingrassa
  • VEB
    https://www.veb.it/author/marco
    Il Pianeta Più Simile alla Terra È Stato Scoperto? Cosa Dice la NASA
  • VEB
    https://www.veb.it/author/marco
    Scoperta l’origine del famoso segnale radio del 2024
  • VEB
    https://www.veb.it/author/marco
    Il lato oscuro di ChatGPT: cosa succede al tuo cervello quando lo usi per studiare?
Tags: google gemini

Post navigation

Precedente Ruba 7 dollari, non ha più diritto alla pensione
Prossimo In Giappone i droni raccolgono i fulmini e li ri-utilizzano

Sezioni

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Italia
  • Chi Siamo
  • Redazione

Ultime pubblicazioni

  • Cometa 3I/ATLAS: Arriva una nuova teoria
  • Supera l’esame di guida al 75° tentativo: il caso che sorprende
  • Il ghiaccio più antico della Terra svela 6 milioni di anni di clima
  • Come scegliere birra artigianale sicura e di qualità
  • Il trucco del burro delle nonne: più volume, zero sprechi

Leggi anche

Cometa 3I/ATLAS: Arriva una nuova teoria cometa-3i-atlas-criovulcani-ipotesi
  • Mondo

Cometa 3I/ATLAS: Arriva una nuova teoria

Dic 3, 2025
Supera l’esame di guida al 75° tentativo: il caso che sorprende superare-esame-guida-dopo-75-tentativi
  • Gossip

Supera l’esame di guida al 75° tentativo: il caso che sorprende

Dic 3, 2025
Il ghiaccio più antico della Terra svela 6 milioni di anni di clima ghiaccio-antico-antartide-clima-preistorico
  • Mondo

Il ghiaccio più antico della Terra svela 6 milioni di anni di clima

Dic 3, 2025
Come scegliere birra artigianale sicura e di qualità birra-artigianale-sicura-guida-verifica
  • Salute

Come scegliere birra artigianale sicura e di qualità

Dic 3, 2025
  • Disclaimer
  • Redazione
  • Consenso cookie
  • Politica dei cookie
  • Chi Siamo
  • mappa del sito
Copyright © 2010 - Veb.it - All rights reserved. | DarkNews per AF themes.