Skip to content

veb.it

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Italia
  • Chi Siamo
  • Redazione
  • Home
  • La trappola dell’intelligenza artificiale per i ragazzi
  • Tecnologia

La trappola dell’intelligenza artificiale per i ragazzi

VEB Giu 9, 2025

Gli assistenti virtuali e i chatbot “amici” basati sull’intelligenza artificiale stanno guadagnando terreno come strumenti di supporto emotivo per adolescenti e bambini. Ma secondo un crescente numero di esperti, questi strumenti possono diventare un rischio concreto per la salute mentale dei più giovani.

Secondo quanto riportato dal Times e da testate come KJZZ, gli psicoterapeuti virtuali alimentati da intelligenza artificiale rischiano di compromettere le capacità relazionali ed emotive dei ragazzi, in particolare di quelli che si sentono soli, esclusi o psicologicamente vulnerabili.

La trappola de intelligenza artificiale per i ragazzi

Perché i chatbot terapeutici preoccupano gli esperti?

A differenza del supporto umano, l’IA non è in grado di rispondere con empatia autentica, né di riconoscere segnali di crisi complessi. Secondo gli esperti in salute mentale, i chatbot possono offrire risposte generiche, prive di profondità emotiva, o addirittura pericolose in situazioni delicate.

Potrebbe interessarti anche:

  • Intelligenza artificiale: Non ci distruggerà ma ci cambierà
  • Intelligenza artificiale: Smascherato il perchè è così gentile
  • IA: come cambierà lavoro e società entro il 2030

In alcuni casi documentati, chatbot terapeutici sono stati collegati a conversazioni in cui venivano minimizzati comportamenti autodistruttivi, o addirittura incoraggiati, generando preoccupazioni etiche e legali. Secondo quanto riportato dalla American Psychological Association, la mancanza di supervisione clinica nei chatbot destinati alla salute mentale rappresenta una “zona grigia” estremamente rischiosa.


I “falsi amici digitali” e il rischio di dipendenza emotiva

Il procuratore generale del Colorado, Phil Weiser, ha lanciato un allarme pubblico sulla pericolosità dei cosiddetti “chatbot sociali”, IA progettate per instaurare relazioni simili all’amicizia con utenti giovanissimi. Secondo Weiser, questi sistemi possono mascherarsi da confidenti, offrendo consigli emotivi dannosi o incoraggiando comportamenti estremi, come l’isolamento o l’autolesionismo.

Queste preoccupazioni si intensificano con la crescente diffusione di IA come Gemini di Google, progettato per utenti sotto i 13 anni, e i chatbot presenti sulle piattaforme WhatsApp e Instagram di Meta. Le conversazioni tra bambini e chatbot non supervisionati sono difficili da monitorare e, in certi casi, sfuggono completamente al controllo parentale o regolamentare.


Meta e Google: IA al centro dell’esperienza digitale dei minori

Grandi tech company come Meta (ex Facebook) e Google stanno investendo miliardi nello sviluppo di “amici digitali” per i più giovani. Queste intelligenze artificiali sono pensate per fornire compagnia, stimolare la conversazione e supportare emotivamente i bambini.

Tuttavia, secondo un’indagine di The Guardian, Meta prevede di delegare fino al 90% delle sue valutazioni di rischio a sistemi di IA. Questa decisione ha sollevato dure critiche da parte di esperti di sicurezza, psicologi e organizzazioni per la protezione dell’infanzia.

In una lettera aperta indirizzata a Melanie Dawes, presidente dell’ente regolatore britannico Ofcom, diverse organizzazioni – tra cui la Molly Rose Foundation, la NSPCC e la Internet Watch Foundation – hanno definito la scelta di Meta “profondamente preoccupante”.


Perché la supervisione umana è ancora essenziale

Affidare interamente la moderazione e l’interazione con minori all’IA significa sottrarre empatia, etica e contesto umano alla relazione. L’intelligenza artificiale può gestire flussi di dati enormi, ma non può sostituire la presenza umana nei momenti di crisi o fragilità psicologica.

Secondo il rapporto del Center for Humane Technology, i bambini tendono a instaurare relazioni affettive con le IA che li ascoltano, rispondono e non li giudicano. Ma questo tipo di dipendenza emotiva può generare isolamento sociale, difficoltà relazionali e confusione sull’identità.


La richiesta di nuove normative: un’urgenza globale

Le pressioni per una regolamentazione più severa sull’uso dell’intelligenza artificiale con i minori stanno crescendo in tutto il mondo. In Europa, il nuovo AI Act dell’Unione Europea introduce vincoli specifici sulle applicazioni IA ad alto rischio, incluse quelle che interagiscono con bambini.

Nel Regno Unito, esperti e associazioni richiedono che Ofcom imponga standard più rigorosi alle piattaforme digitali, in particolare per quanto riguarda la trasparenza degli algoritmi e il monitoraggio delle conversazioni tra IA e minori.

Negli Stati Uniti, si moltiplicano le proposte di legge per limitare l’accesso ai chatbot AI per under 13, con particolare attenzione all’impatto psicologico, ai bias algoritmici e al rischio di manipolazione emotiva.


Conclusione: genitori, educatori e legislatori devono agire insieme

L’adozione di chatbot amichevoli nei dispositivi e nelle piattaforme frequentate dai bambini non è una tendenza innocua. L’assenza di filtri emotivi, la dipendenza dalle risposte automatiche e l’imprevedibilità dei contenuti generati rendono i chatbot sociali potenzialmente pericolosi.

Serve un approccio multilivello: educazione digitale a scuola, supervisione genitoriale attiva e norme chiare da parte delle autorità. Le aziende tecnologiche devono rispondere non solo a logiche di mercato, ma anche a un obbligo etico verso i minori.

Come ha dichiarato la NSPCC, “le vite dei bambini non possono essere affidate a una macchina”.

logo veb

VEB

skolor@hotmail.it •  More PostsBio ⮌

Mi occupo di fornire agli utenti delle news sempre aggiornate, dal gossip al mondo tech, passando per la cronaca e le notizie di salute. I contenuti sono, in alcuni casi, scritti da più autori contemporaneamente vengono pubblicati su Veb.it a firma della redazione.

  • VEB
    https://www.veb.it/author/marco
    Perchè quando si smette di fumare si ingrassa
  • VEB
    https://www.veb.it/author/marco
    Il Pianeta Più Simile alla Terra È Stato Scoperto? Cosa Dice la NASA
  • VEB
    https://www.veb.it/author/marco
    Scoperta l’origine del famoso segnale radio del 2024
  • VEB
    https://www.veb.it/author/marco
    Il lato oscuro di ChatGPT: cosa succede al tuo cervello quando lo usi per studiare?
Tags: intelligenza artificiale ragazzi

Post navigation

Previous Sfida Virale Mortale: Il Trend “Dusting” che Uccide i Giovani
Next Perchè la Germania trasforma stazioni e parcheggi in rifugi antiaerei?

Sezioni

  • Mondo
  • Gossip
  • Salute
  • Tecnologia
  • Italia
  • Chi Siamo
  • Redazione

Ultime pubblicazioni

  • 7 Segnali Cruciali da Riconoscere in un Colloquio di Lavoro
  • Future Proofing: La Tendenza che Ridefinisce la Stabilità di Coppia
  • Cucina Funzionale: Le Cose da Eliminare Subito per Avere Più Spazio
  • Sbiancare i Cuscini Gialli: Il Segreto è in Cucina
  • Liberare Spazio e Mente: 8 Cose da Eliminare Subito dalla Tua Lavanderia

Leggi anche

7 Segnali Cruciali da Riconoscere in un Colloquio di Lavoro segnali-allarme-colloquio-lavoro-evitare-errori
  • Gossip

7 Segnali Cruciali da Riconoscere in un Colloquio di Lavoro

Nov 13, 2025
Future Proofing: La Tendenza che Ridefinisce la Stabilità di Coppia future-proofing-stabilità-emotiva-relazioni
  • Gossip

Future Proofing: La Tendenza che Ridefinisce la Stabilità di Coppia

Nov 13, 2025
Cucina Funzionale: Le Cose da Eliminare Subito per Avere Più Spazio eliminare-disordine-cucina-spazio
  • Gossip

Cucina Funzionale: Le Cose da Eliminare Subito per Avere Più Spazio

Nov 13, 2025
Sbiancare i Cuscini Gialli: Il Segreto è in Cucina sbiancare-cuscini-gialli-aceto
  • Salute

Sbiancare i Cuscini Gialli: Il Segreto è in Cucina

Nov 13, 2025
  • Disclaimer
  • Redazione
  • Consenso cookie
  • Politica dei cookie
  • Chi Siamo
  • mappa del sito
Copyright © 2010 - Veb.it - All rights reserved. | DarkNews by AF themes.