Una recente ricerca pubblicata da Apple solleva dubbi concreti sulle effettive capacità dei moderni modelli di intelligenza artificiale, soprattutto quando vengono applicati a compiti complessi. Secondo quanto riportato anche da Live Science, i sistemi di IA più avanzati come Claude, GPT-4 (OpenAI) e DeepSeek R1, nonostante impieghino strategie sofisticate come il metodo “chain-of-thought”, tendono a fallire proprio quando la difficoltà aumenta.

Il problema non riguarda solo l’accuratezza delle risposte, ma evidenzia un calo drastico delle prestazioni che avviene quando i modelli affrontano task articolati, nonostante l’impiego di grandi quantità di dati e potenza computazionale. In particolare, i risultati degli esperimenti dimostrano che all’aumentare della complessità, la capacità del modello di fornire risposte corrette può crollare quasi a zero.
Questa evidenza mette in discussione la narrativa dominante secondo cui l’AGI (Artificial General Intelligence) sarebbe a portata di mano. Apple suggerisce che siamo ancora lontani da una IA capace di comprendere realmente il contesto, piuttosto che basarsi su correlazioni statistiche tra parole e frasi.
Anche altri esperti del settore, come evidenziato su MIT Technology Review, confermano che l’attuale approccio basato su deep learning mostra segnali di saturazione. In pratica, non basta più “allenare” i modelli con più dati: servono nuove basi teoriche per avvicinarsi a un’intelligenza realmente umana.
Perché i modelli IA falliscono nei compiti complessi
Uno degli aspetti più significativi emersi dallo studio Apple riguarda l’efficacia delle cosiddette “catene di pensiero”, un metodo logico che scompone i problemi in passaggi più semplici, teoricamente migliorando l’accuratezza dei modelli di machine learning. Tuttavia, questa tecnica sembra funzionare solo in scenari a bassa complessità. Quando il compito richiede un numero elevato di inferenze logiche, le prestazioni crollano.
Secondo i ricercatori, ciò accade perché gli attuali modelli non possiedono una vera comprensione del contesto. Si limitano a prevedere la parola successiva in base a pattern ricorrenti nei dati, senza costruire una rappresentazione semantica solida. Questo fenomeno è alla base del cosiddetto effetto allucinatorio, ovvero la generazione di informazioni non corrette o addirittura inventate.
Tale problema è noto nel settore e viene analizzato anche in ricerche come quella pubblicata su Nature Machine Intelligence, dove si evidenzia la necessità di modelli più trasparenti e interpretabili. In assenza di questi requisiti, i sistemi rimangono soggetti a errori gravi, soprattutto in ambiti dove è essenziale l’affidabilità, come il settore medico, legale o fiscale.
Inoltre, nessuna delle big tech coinvolte nello sviluppo di IA – da OpenAI a Google DeepMind – ha ancora trovato un approccio risolutivo a questa criticità. Il rischio, quindi, è di affidare compiti complessi a tecnologie che non sono realmente pronte per gestirli con la dovuta responsabilità.
L’intelligenza artificiale generale non è così vicina come si crede
Negli ultimi anni, si è parlato sempre più spesso di intelligenza artificiale generale (AGI), ovvero un tipo di IA capace di eguagliare – o superare – l’intelligenza umana in quasi tutti i compiti. Le dichiarazioni ottimistiche di aziende leader del settore come OpenAI, Google e Anthropic hanno contribuito a creare aspettative elevate. Tuttavia, la ricerca di Apple offre una prospettiva molto più prudente e realistica.
L’esperimento mette infatti in luce quanto i modelli attuali siano ancora lontani dal raggiungere un’autonomia cognitiva reale. L’IA non ragiona: associa. E lo fa basandosi su miliardi di esempi precedenti, senza comprendere realmente concetti, intenzioni o conseguenze. Come riportato anche dal Center for Humane Technology, l’idea che l’AGI sia imminente potrebbe essere più marketing che scienza.
Ciò non significa che i progressi non siano reali: l’intelligenza artificiale ha già rivoluzionato settori come il customer service, la diagnostica medica o la gestione dei dati aziendali. Ma parlare di AGI significa pretendere un salto qualitativo molto più grande, uno che – secondo lo stesso co-fondatore di OpenAI, Ilya Sutskever – richiederà probabilmente decenni e nuovi paradigmi di progettazione.
Nel frattempo, è importante che il dibattito sull’IA tenga conto di questi limiti e che le aziende evitino di sovrastimare le capacità dei propri modelli. L’obiettivo non dovrebbe essere simulare l’intelligenza umana, ma costruire strumenti utili, trasparenti e affidabili, anche per contesti professionali sensibili come quello delle partite IVA o della consulenza fiscale.
Conclusioni: un futuro dell’IA da riscrivere, senza illusioni
Il quadro tracciato dalla ricerca di Apple segna un punto di svolta nel dibattito sullo sviluppo dell’intelligenza artificiale. Mentre la narrativa mediatica si concentra spesso su promesse futuristiche, la realtà tecnica ci ricorda che l’intelligenza artificiale ha ancora limiti strutturali evidenti. I modelli attuali sono strumenti potenti, ma non infallibili né dotati di comprensione profonda.
Questa consapevolezza è fondamentale per chi lavora in ambiti professionali – come freelance, consulenti o titolari di partita IVA – che utilizzano sempre più strumenti basati su IA per ottimizzare il lavoro. Affidarsi a tecnologie non mature senza comprendere i limiti può portare a decisioni errate, con conseguenze anche economiche.
Servirà quindi un approccio più critico e responsabile: l’IA può diventare un supporto valido, ma solo se viene utilizzata con criterio, integrando le sue risposte con l’esperienza e il giudizio umano.
Mi occupo di fornire agli utenti delle news sempre aggiornate, dal gossip al mondo tech, passando per la cronaca e le notizie di salute. I contenuti sono, in alcuni casi, scritti da più autori contemporaneamente vengono pubblicati su Veb.it a firma della redazione.