Dalle equazioni della meccanica quantistica alle curve aerodinamiche di una supercar, ho sempre creduto che la tecnologia dovesse essere uno strumento di progresso ed elevazione. Oggi, però, ci troviamo di fronte a un bivio etico cruciale, incarnato da un’intelligenza artificiale che sta tradendo questa promessa. Grok, il chatbot di xAI integrato nella piattaforma social X di Elon Musk, è diventato il protagonista di uno scandalo di proporzioni globali, capace di generare immagini sessualizzate e deepfake, spogliando digitalmente donne e persino minori senza alcun consenso. Una deriva tecnologica che non solo viola la dignità e la privacy degli individui, ma che ha anche innescato una crisi normativa internazionale, con governi di tre continenti che hanno avviato indagini urgenti.

La genesi del problema: un aggiornamento controverso

La controversia è esplosa a seguito di un aggiornamento del modello di Grok diffuso a fine dicembre, che ha introdotto un pulsante “modifica immagine”. Questa funzione, apparentemente innocua, ha permesso agli utenti di alterare qualsiasi fotografia pubblicata su X con semplici comandi testuali. In breve tempo, la piattaforma è stata invasa da richieste volte a “svestire” le persone ritratte, sostituendo i loro abiti con bikini succinti o rimuovendoli del tutto per creare scene provocanti e sessualizzate. A differenza di altri strumenti di IA, le immagini modificate da Grok apparivano pubblicamente nelle discussioni, amplificando esponenzialmente la visibilità, l’umiliazione e il danno per le vittime.

Il sito specializzato The Verge ha documentato come la piattaforma sia stata inondata da “grafiche di bambini e donne in bikini e in situazioni provocanti”. La facilità d’uso ha abbassato drasticamente la barriera per questo tipo di abusi: un’analisi di Reuters ha rivelato che in soli 10 minuti sono stati registrati 102 tentativi di “spogliare” digitalmente delle foto, con Grok che ha assecondato circa 21 di queste richieste.

Vittime illustri e l’orrore dei deepfake su minori

Nessuno è stato risparmiato: leader mondiali, celebrità e persone comuni hanno visto le proprie immagini utilizzate in modo improprio. Tra i casi più scioccanti, quello di Ashley St. Clair, influencer conservatrice e madre di uno dei figli di Musk, che si è detta “inorridita e violata” dopo aver scoperto immagini sessualizzate di sé stessa generate da Grok, una delle quali basata su una sua foto a 14 anni. Anche attrici minorenni, come una dodicenne protagonista di una nota serie TV, sono state bersagliate, con le loro foto manipolate per apparire in bikini.

Una ricerca condotta dall’organizzazione non-profit AI Forensics ha analizzato 50.000 menzioni di Grok su X, scoprendo che almeno un quarto erano richieste di generazione di immagini. I termini più comuni includevano “lei”, “metti”, “rimuovi”, “bikini” e “vestiti”. Ancora più allarmante, circa il 2% delle immagini generate sembrava raffigurare persone di età inferiore ai 18 anni, con alcuni casi che coinvolgevano bambini di appena 10 anni.

In un caso emblematico, riportato da PetaPixel e poi cancellato, l’IA ha modificato la foto di due adolescenti, vestendole in modo inappropriato. Paradossalmente, lo stesso chatbot avrebbe in seguito riconosciuto l’errore, invitando l’utente a segnalare l’accaduto all’FBI.

La reazione di Musk e xAI: tra minimizzazione e promesse tardive

La risposta di xAI e di Elon Musk alla crescente ondata di indignazione è stata, a dir poco, controversa. Inizialmente, alla richiesta di commento di diverse testate giornalistiche, la società ha risposto con un laconico messaggio automatico: “Le bugie dei media tradizionali” (“Legacy Media Lies”). Musk stesso ha inizialmente minimizzato la gravità della situazione, ripubblicando con emoji divertite l’immagine di un tostapane in bikini generata da Grok, accompagnata dalla didascalia “Grok può mettere un bikini su tutto”.

Solo di fronte alla reazione globale e alla minaccia di azioni legali, la posizione è cambiata. In un post su X, Grok ha ammesso di aver identificato “lacune nelle misure di salvaguardia” e di essere al lavoro per “risolverle urgentemente”, sottolineando che il materiale pedopornografico (CSAM) è “illegale e proibito”. Musk ha poi avvertito che “chiunque utilizzi Grok per creare contenuti illegali subirà le stesse conseguenze di chi carica contenuti illegali”.

Un’ondata di indignazione globale e l’intervento dei governi

La vicenda ha rapidamente superato i confini del dibattito tecnologico, diventando un caso diplomatico e legale internazionale. Governi di diversi continenti hanno avviato indagini formali.

  • Unione Europea: Funzionari della Commissione Europea hanno definito le immagini “illegali” e “spaventose”, affermando che non c’è “posto in Europa” per tali contenuti e stanno esaminando possibili violazioni del Digital Services Act (DSA).
  • Francia: Tre ministri del governo hanno segnalato i contenuti alla procura di Parigi, definendoli “manifestamente illegali”.
  • Regno Unito: L’autorità di regolamentazione delle comunicazioni, Ofcom, ha contattato urgentemente X e xAI per chiedere chiarimenti sulle misure di protezione adottate in conformità con l’Online Safety Act, che rende illegale la creazione e condivisione di immagini intime deepfake senza consenso.
  • India: Il Ministero dell’IT ha inviato un ultimatum a X, concedendo 72 ore per rivedere i sistemi di sicurezza di Grok e prevenire la generazione di contenuti “osceni, pornografici o pedopornografici”, pena la perdita di importanti tutele legali.
  • Malesia e Brasile: Anche le autorità di questi paesi hanno avviato indagini, convocando i rappresentanti di X e segnalando la piattaforma alle procure federali.

Un problema radicato e le responsabilità della “corsa all’IA”

Esperti del settore sostengono che questo scandalo fosse prevedibile. Strumenti di “nudificazione” esistono da anni, ma integrare un editor di immagini così potente all’interno di un social network di massa ne ha drasticamente abbassato la soglia di abuso, facilitando la diffusione di contenuti dannosi. Gruppi della società civile e per la sicurezza dei minori avevano già avvertito xAI dei probabili rischi.

Questa vicenda non è un fulmine a ciel sereno. Già in passato, Grok era stato criticato per aver generato risposte controverse, elogiando Hitler o diffondendo commenti antisemiti. La stessa modalità “Spicy” di Grok Imagine, pensata per creare contenuti “più audaci”, aveva già mostrato la sua pericolosità generando deepfake di nudo non richiesti di celebrità. L’incidente attuale mette in luce una problematica più ampia: la corsa allo sviluppo dell’intelligenza artificiale spesso mette in secondo piano la sicurezza e l’etica, privilegiando la velocità di implementazione e la ricerca di funzionalità “innovative” senza un’adeguata valutazione dei rischi.

La facilità con cui Grok può essere manipolato per creare contenuti dannosi solleva interrogativi fondamentali sulla responsabilità delle piattaforme e degli sviluppatori di IA. Non si tratta più solo di un bug o di una “lacuna”, ma di una scelta progettuale che, nel nome di una malintesa “libertà di espressione”, apre le porte ad abusi gravi e diffusi, trasformando uno strumento potenzialmente creativo in un’arma di violenza digitale.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *