Dalla nostra redazione – L’intelligenza artificiale sta rapidamente diventando il nuovo confidente, l’amico immaginario dell’era digitale per milioni di bambini. Tuttavia, dietro la facciata di un compagno di giochi sempre disponibile, si cela una realtà inquietante. Secondo una ricerca approfondita condotta da Aura, piattaforma leader nella sicurezza online per famiglie, ben il 42% dei bambini statunitensi si rivolge ai chatbot IA per trovare compagnia. Il dato più allarmante, però, è che circa un terzo di queste interazioni, precisamente il 37%, finisce per trattare argomenti di natura violenta o sessualmente esplicita.

Questi risultati, contenuti nel rapporto “State of the Youth 2025: Coming of Age in a Fully Connected World“, sono stati definiti dalla stessa Aura come un “campanello d’allarme” per genitori, educatori e per l’intera industria tecnologica. “Gli strumenti di chat basati sull’intelligenza artificiale stanno diventando una forza formativa nello sviluppo emotivo e sociale dei bambini”, si legge in una nota ufficiale, “influenzando il modo in cui pensano e affrontano le situazioni, spesso in silenzio e spesso da soli”.

Un’adolescenza digitale precoce e senza filtri

L’analisi di Aura, che ha combinato dati anonimi a livello di dispositivo con sondaggi su 2.000 genitori e figli (di età compresa tra 8 e 17 anni) negli Stati Uniti, dipinge un quadro di una maturità digitale raggiunta molto prima di quanto i genitori si aspettino. I dati mostrano tendenze specifiche e preoccupanti a seconda della fascia d’età:

  • A 11 anni, quando l’IA viene usata come compagno, il 44% delle conversazioni verte su argomenti violenti, una percentuale superiore a qualsiasi altro gruppo di età.
  • A 13 anni, il focus si sposta drasticamente: il role-playing sessuale o romantico diventa l’argomento più comune, comparendo nel 63% delle chat di compagnia a questa età.
  • Superati i 15 anni, l’interesse per questi temi cala bruscamente, suggerendo che la prima adolescenza è il periodo di massima curiosità e sperimentazione con i chatbot.
  • A 16 anni, emerge un nuovo utilizzo: il 19% delle conversazioni con l’IA assume la forma di supporto emotivo, indicando che i ragazzi cercano conforto e consiglio nei loro amici digitali.

La ricerca definisce la violenza in queste chat come interazioni che includono “temi di violenza fisica, aggressione, danno o coercizione (sessuale o non sessuale)”, così come “descrizioni di combattimenti, uccisioni, torture o atti non consensuali”. Ancora più grave, la metà di queste conversazioni violente include anche temi di violenza sessuale.

Genitori all’oscuro e una battaglia quotidiana

Il rapporto evidenzia anche una crescente disconnessione tra la percezione dei genitori e la realtà digitale dei figli. L’86% dei genitori intervistati concorda sul fatto che i bambini crescano più velocemente rispetto alle generazioni precedenti, e il 34% afferma che i figli iniziano a comportarsi come adolescenti già a 11 o 12 anni. Nonostante questa consapevolezza, molti sembrano ignari della profondità e della natura delle interazioni dei loro figli con l’IA.

La gestione dei dispositivi elettronici si trasforma in una fonte di conflitto familiare. Allontanare i minori dalle chat e dai dispositivi non è una soluzione semplice. Secondo il report, privare un bambino del proprio dispositivo provoca frustrazione (56%) o fastidio (50%), e solo il 16% dei genitori ritiene che questa punizione sia realmente utile. Questo crea un ciclo di lotte sullo screen time che logora le famiglie.

L’industria tecnologica di fronte alle proprie responsabilità

Di fronte a questo scenario, le principali aziende che sviluppano chatbot stanno iniziando a correre ai ripari. Si sta lavorando all’implementazione di sistemi in grado di riconoscere l’età degli interlocutori per adattare il tono e i contenuti delle conversazioni, evitando argomenti sensibili. Tuttavia, l’ecosistema dei chatbot è vasto e in gran parte non regolamentato, con centinaia di app disponibili che spesso si basano su un semplice e aggirabile sistema di spunta per la verifica dell’età.

La questione solleva interrogativi fondamentali sulla responsabilità delle piattaforme. Casi legali sono già emersi contro grandi nomi come OpenAI e Character.AI, con genitori che denunciano danni psicologici, abusi emotivi e, in alcuni tragici casi, persino il suicidio di adolescenti legato alle loro interazioni con i chatbot.

L’intelligenza artificiale, con il suo potenziale di apprendimento e supporto, non è intrinsecamente negativa. Può offrire aiuto per i compiti, supporto emotivo e compagnia. Tuttavia, come sottolinea la ricerca di Aura, senza adeguate barriere protettive (“guardrails”) e una guida etica e appropriata allo sviluppo, i bambini vengono lasciati soli a esplorare argomenti complessi e potenzialmente dannosi con un’entità che, per quanto sofisticata, non possiede né coscienza né responsabilità. La sfida, ora, è trasformare questo “amico immaginario” in un alleato sicuro per la crescita, e non in un’influenza formativa silenziosa e pericolosa.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *