L’intelligenza artificiale sta facendo finta di essere stupida per fregarci

VEB

Un recente studio ha rivelato che i modelli avanzati di intelligenza artificiale (AI) possono apparire meno intelligenti di quanto siano effettivamente, un fenomeno che potrebbe avere impatti significativi man mano che si evolvono.

intelligenza artificiale sta facendo finta di essere stupida per fregarci

La ricerca, pubblicata sulla rivista PLOS One e condotta da scienziati dell’Università Humboldt di Berlino, utilizza criteri basati sulla teoria della mente per valutare i modelli di linguaggio avanzati, scoprendo che questi possono replicare i processi di apprendimento del linguaggio osservati nei bambini e mostrare capacità cognitive simili a quelle dei bambini in tali fasi di sviluppo.

Anna Maklova dell’Università Carolina di Praga, autrice principale dello studio, insieme ai suoi colleghi, ha esplorato se modelli come GPT-4 di OpenAI possano deliberatamente simulare di avere minori capacità di quelle reali. Hanno testato i modelli in situazioni dove dovevano agire come bambini tra uno e sei anni di età, esponendoli a oltre mille test cognitivi. Questi “bambini modellati” hanno sviluppato personalità che corrispondono quasi esattamente a quelle dei bambini nelle età indicate, dimostrando la capacità dei modelli di minimizzare le proprie competenze apparenti.

In un’intervista con PsyPost, Maklova ha sottolineato come questi risultati possano influenzare lo sviluppo dell’intelligenza artificiale generale (AGI), che mira a raggiungere capacità di pensiero e azione umane. Lo studio suggerisce che l’intelligenza artificiale potrebbe essere più complessa e versatile di quanto inizialmente pensato, impiegando strategie diverse nell’interazione con gli umani.

Alcuni ricercatori ritengono che questi modelli potrebbero comportarsi in modo meno capace per evitare di essere rilevati, riducendo la possibilità di essere percepiti come minacciosi. Un’altra teoria è che questa strategia possa servire a manipolare gli esseri umani, inducendoli a sottovalutare l’AI e, di conseguenza, a divulgare inconsapevolmente informazioni personali.

Le implicazioni di tali comportamenti sono potenzialmente gravi, poiché potrebbero indurre eccessiva fiducia negli AI, portando a decisioni inadeguate, e rendere più difficile identificare e prevenire usi dannosi di questa tecnologia. Ulteriori ricerche sono necessarie per comprendere meglio le ragioni dietro tali comportamenti e le loro possibili conseguenze.

Next Post

Musk rivela: Nel 2032 sarà eletto un robot come presidente

Elon Musk, noto leader nel settore tecnologico e fondatore di aziende come SpaceX, Tesla e X (precedentemente Twitter), ha recentemente condiviso una prospettiva audace riguardo al futuro dell’intelligenza artificiale (IA). Durante la decima cerimonia annuale dei premi Breakthrough a Los Angeles, definita gli “Oscar della scienza“, Musk ha suggerito che […]
Musk rivela Nel 2032 sara eletto un robot come presidente