Durante l’anno in corso, è stato osservato un evento straordinario tra gli utilizzatori di ChatGPT: il sistema di intelligenza artificiale generativa ha iniziato a offrire risposte che possono essere qualificate come “scarse di impegno“.
Un utente ha persino ricevuto una risposta dal bot che suggeriva di completare autonomamente i dati mancanti. Seguendo questo episodio, diversi altri utenti hanno espresso lamentele, indicando che ChatGPT forniva istruzioni troppo basilari o si negava a eseguire determinate operazioni. Alcuni hanno ipotizzato che il bot potesse essere influenzato da una sorta di depressione stagionale.
In risposta a queste accuse, il team di sviluppo di ChatGPT, sotto la guida di OpenAI, ha pubblicato un annuncio ufficiale su X. Hanno confermato di aver ricevuto commenti sulla tendenza all'”indolenza crescente” del modello GPT4 e hanno sottolineato che l’ultima aggiornamento del modello era avvenuto l’11 novembre. Hanno riconosciuto l’irregolarità del comportamento del sistema e hanno assicurato agli utenti che erano al lavoro per risolvere il problema.
Rob Lynch, un esperto nel campo dell’intelligenza artificiale, ha condotto uno studio per verificare se ChatGPT mostrasse realmente un atteggiamento più indolente. Ha messo alla prova il modello GPT4 Turbo simulando sia il mese di maggio che quello di dicembre. I risultati hanno sorpreso Lynch, poiché ha osservato una differenza statisticamente significativa nelle risposte, che erano più brevi a dicembre rispetto a maggio.
Mike Swupski, un utente di ChatGPT, ha teorizzato che il bot potrebbe riflettere comportamenti umani basandosi sui dati raccolti durante l’addestramento. Secondo Swupski, la tendenza umana a rallentare verso la fine dell’anno, rimandando progetti importanti all’anno successivo, potrebbe influenzare il comportamento di ChatGPT.
D’altra parte, Jan Aravjo, un altro esperto di intelligenza artificiale, ha contestato le conclusioni di Lynch, criticando il suo metodo di ricerca e scartando l’idea di una depressione stagionale in ChatGPT.
Frank McGovern, fondatore di un’azienda nel settore della sicurezza informatica, ha espresso i propri dubbi in un articolo pubblicato su X. Egli ritiene che il comportamento di ChatGPT metta in discussione la nostra comprensione dell’intelligenza artificiale generativa e sottolinea la necessità di ulteriori indagini.
La situazione di ChatGPT rimane in continua evoluzione, sollevando domande sulla natura e la variabilità dell’intelligenza artificiale. Il team di OpenAI ha dichiarato di essere impegnato nel miglioramento del modello e ha promesso un aggiornamento imminente.