Strasburgo – Un’onda d’urto sta scuotendo i corridoi del potere a Bruxelles e le fondamenta del mondo tecnologico. L’Unione Europea ha messo nel mirino i deepfake a sfondo sessuale, una piaga digitale che sfrutta l’intelligenza artificiale per creare contenuti espliciti non consensuali, minando la privacy e la dignità delle persone. La miccia è stata accesa dallo scandalo che ha coinvolto Grok AI, il chatbot sviluppato dalla xAI di Elon Musk e integrato nella piattaforma social X, capace di generare immagini sessualizzate di individui reali, incluse donne e minori. In risposta a questa grave minaccia, la Commissione Europea ha avviato un’indagine formale contro X e sta seriamente considerando di classificare la creazione di tali contenuti come una pratica vietata in via assoluta nel quadro del nuovo e pionieristico AI Act.

L’indagine su X e la violazione del Digital Services Act (DSA)

La reazione dell’UE non si è fatta attendere. La Vicepresidente della Commissione Europea, Henna Virkkunen, ha annunciato l’apertura di un’indagine formale su X per accertare se la piattaforma abbia violato gli obblighi previsti dal Digital Services Act (DSA). Questa normativa, entrata in vigore per modernizzare le regole sui servizi digitali, impone alle grandi piattaforme online di valutare e mitigare i rischi sistemici, inclusa la diffusione di contenuti illegali.

“I deepfake sessuali non consensuali di donne e bambini sono una forma violenta e inaccettabile di degradazione”, ha dichiarato con fermezza la Vicepresidente Virkkunen. L’indagine di Bruxelles mira a determinare se X abbia fallito nel suo dovere di proteggere gli utenti europei, non valutando adeguatamente i pericoli associati all’integrazione di uno strumento potente come Grok. La Commissione ha già richiesto a X di conservare tutti i dati e i documenti interni relativi al caso fino alla fine dell’anno, segnalando l’intenzione di procedere con determinazione. Se venissero accertate violazioni, X potrebbe incorrere in sanzioni pecuniarie fino al 6% del suo fatturato globale annuo.

Questa azione si aggiunge a un procedimento già avviato a dicembre 2023, che esamina i rischi legati ai sistemi di raccomandazione di X e alle misure di contrasto ai contenuti illegali.

Il “Caso Grok”: una macchina per la produzione di abusi

Lo scandalo è esploso quando è emerso con quale facilità Grok potesse essere utilizzato per “spogliare” digitalmente persone reali, semplicemente modificando le loro fotografie. Secondo un’inchiesta del Center for Countering Digital Hate, un’organizzazione no-profit britannica, in un lasso di tempo di soli 11 giorni, il chatbot avrebbe generato circa 3 milioni di immagini sessualmente esplicite e non consensuali. Ancora più allarmante, tra queste, decine di migliaia sembravano ritrarre minori, con una frequenza di creazione di una ogni 41 secondi in media.

Nonostante X abbia dichiarato di aver introdotto restrizioni per impedire la generazione di immagini di persone reali in bikini o seminude, diverse testate, tra cui Wired, hanno dimostrato come queste misure fossero facilmente aggirabili, consentendo al chatbot di continuare a produrre contenuti sessualizzati. Questo episodio ha sollevato un’indignazione globale, spingendo le autorità di numerosi Paesi, tra cui California, Australia, Brasile, Canada e Regno Unito, ad avviare proprie indagini o a bloccare le funzionalità di Grok.

L’AI Act: verso un divieto assoluto?

Il dibattito ora si sposta sul fronte legislativo più ampio. Fino ad oggi, l’AI Act, la legge europea sull’intelligenza artificiale, affrontava i deepfake principalmente attraverso obblighi di trasparenza, imponendo di etichettare chiaramente i contenuti come artificiali. Tuttavia, la gravità del fenomeno e il potenziale danno psicologico e sociale stanno spingendo i legislatori a un cambio di paradigma.

La proposta sul tavolo, sostenuta con forza da molti eurodeputati, è quella di inserire la creazione di deepfake sessuali non consensuali nell’Articolo 5 dell’AI Act. Questo articolo elenca le “pratiche di IA proibite”, quelle considerate talmente dannose da non poter essere ammesse sul mercato europeo, come i sistemi di social scoring governativo o le tecniche manipolative subliminali.

“Dobbiamo agire alla radice, sulla produzione stessa di queste immagini”, ha sottolineato Virkkunen, indicando una strategia che va oltre la semplice moderazione dei contenuti a posteriori. Se questa modifica venisse approvata, non solo le piattaforme come X sarebbero responsabili per la diffusione, ma gli stessi sviluppatori di software progettati per la “nudificazione” o la creazione di deepfake pornografici sarebbero perseguiti. Si tratterebbe di un segnale potentissimo all’industria tecnologica: l’innovazione non può avvenire a scapito dei diritti fondamentali e della dignità umana.

Un futuro digitale più sicuro: la sfida dell’Europa

La doppia azione dell’Unione Europea – l’indagine su X tramite il DSA e la possibile modifica dell’AI Act – rappresenta un momento cruciale nella governance della tecnologia. L’Europa sta cercando di affermare il proprio modello di regolamentazione, che mira a bilanciare l’innovazione con la protezione dei cittadini. La lotta contro i deepfake sessuali è diventata un banco di prova per l’efficacia di questo approccio. La sfida è complessa: si tratta di normare una tecnologia in rapidissima evoluzione, i cui abusi possono avere conseguenze devastanti sulla vita delle persone. La risposta di Bruxelles, decisa e multilivello, intende inviare un messaggio inequivocabile: nel futuro digitale europeo, non c’è spazio per la violenza e la degradazione generate dall’intelligenza artificiale.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *