In Grecia, una donna ha chiesto il divorzio dopo dodici anni di matrimonio, basandosi su un’insolita rivelazione fornita da ChatGPT. Il noto chatbot di OpenAI, utilizzato per giochi e curiosità legate alla tasseografia – l’antica arte di leggere i fondi di caffè – avrebbe “diagnosticato” un tradimento da parte del marito analizzando una foto del fondo della sua tazza. Il fatto, riportato da diverse testate greche e diventato virale, ha acceso il dibattito sui limiti dell’intelligenza artificiale e sull’influenza che può avere nelle relazioni umane.

Una tazza di caffè, una domanda a ChatGPT e un matrimonio finito
Secondo quanto emerso nel programma greco To Proino, la donna, affascinata da pratiche divinatorie e da una recente tendenza social, ha pensato di divertirsi “facendo leggere” i fondi di caffè a ChatGPT. Dopo aver preparato due tazze per sé e il marito, ha scattato delle foto e le ha inviate al chatbot chiedendogli un’interpretazione in stile tasseografico.
La risposta del modello di intelligenza artificiale è stata tutt’altro che neutra: ChatGPT avrebbe indicato che l’uomo stava avendo una relazione con una donna il cui nome iniziava per “E”, destinata a diventare una figura destabilizzante nella loro famiglia. La donna, senza cercare conferme né chiarimenti, ha reagito drasticamente: lo ha cacciato di casa, ha parlato ai figli della separazione e ha avviato formalmente le pratiche di divorzio.
“Lei lo ha preso sul serio”, ha dichiarato il marito in diretta TV. “Ha chiamato un avvocato e dopo tre giorni mi sono stati notificati i documenti.”
Divinazione e intelligenza artificiale: quando il gioco sfugge di mano
Sebbene il chatbot sia stato coinvolto in modo scherzoso, la vicenda solleva questioni importanti sull’uso improprio dell’intelligenza artificiale per interpretazioni sensibili. Secondo l’avvocato dell’uomo, non esistono prove concrete e nessun tribunale può basare una decisione su affermazioni non verificabili provenienti da un’intelligenza artificiale, che – ricordiamo – non ha capacità divinatorie né legali.
Come spiegato dalla Electronic Frontier Foundation (EFF), le IA generative come ChatGPT non possiedono coscienza né verità oggettiva, ma rispondono in base ai dati e ai modelli linguistici presenti nei loro algoritmi. Questo significa che un’“interpretazione” di fondi di caffè, richiesta a una IA, non ha alcuna base reale né razionale.
Esperti di tasseografia: “ChatGPT non può sostituirci”
Il caso ha attirato l’attenzione anche degli esperti di tasseografia, i quali hanno sottolineato che l’interpretazione autentica dei fondi di caffè non si basa solo sul fondo stesso, ma coinvolge anche la schiuma, la forma della tazza, il piattino e persino l’energia della persona.
Come spiegato dall’antropologa culturale Jennifer B. Saunders, autrice di ricerche sull’uso rituale delle bevande, la tasseografia è una forma di simbolismo radicata in tradizioni orali e non può essere replicata da algoritmi testuali.
Una lezione (bizzarra) sull’intelligenza artificiale
Al di là dell’assurdità della vicenda, il caso evidenzia come l’uso ingenuo dell’IA possa avere conseguenze reali. OpenAI stessa, nei suoi documenti ufficiali, raccomanda di non utilizzare ChatGPT per decisioni critiche, soprattutto se emotive o legali.
Nel frattempo, la storia continua a far discutere il web, diventando un caso mediatico in Grecia e alimentando il dibattito su quanto le persone siano disposte a credere all’intelligenza artificiale più di quanto si fidino della realtà.
Fonti autorevoli:
- OpenAI – ChatGPT Usage Guidelines
- Electronic Frontier Foundation – On AI and Misuse
- To Proino (programma televisivo greco) – Testimonianza del marito
Mi occupo di fornire agli utenti delle news sempre aggiornate, dal gossip al mondo tech, passando per la cronaca e le notizie di salute. I contenuti sono, in alcuni casi, scritti da più autori contemporaneamente vengono pubblicati su Veb.it a firma della redazione.