Bruxelles – In un complesso equilibrio tra vigilanza tecnologica e procedura legale, la Commissione europea ha deciso, per il momento, di non adottare “misure provvisorie” nei confronti di X, la piattaforma social di Elon Musk. Al centro del contendere c’è Grok, il suo chatbot basato su intelligenza artificiale, accusato di generare deepfake a sfondo sessuale su richiesta degli utenti, un fenomeno definito dalla vicepresidente della Commissione, Henna Virkkunen, come “una forma violenta e inaccettabile di degradazione”. Questa decisione, tuttavia, non rappresenta un’assoluzione, ma una fase interlocutoria in un’indagine ben più ampia e strutturata.

La Posizione della Commissione: Cautela e Dialogo

Durante un briefing con la stampa, il portavoce della Commissione UE, Thomas Regnier, ha chiarito la linea dell’esecutivo europeo. “Alcuni paesi terzi hanno vietato X, mentre altri hanno avviato indagini. Possiamo essere orgogliosi del fatto che abbiamo ricevuto degli impegni da parte di X. Li stiamo valutando”, ha spiegato Regnier. Questa dichiarazione sottolinea un approccio basato sul dialogo e sulla responsabilità della piattaforma, piuttosto che sull’immediata azione coercitiva. La Commissione sta analizzando le proposte correttive avanzate da X, e solo al termine di questa valutazione deciderà i passi successivi. Pur ribadendo che la lotta alla diffusione di materiale illegale e dannoso è una “priorità assoluta”, Regnier ha specificato che le misure provvisorie, uno strumento potente previsto dal Digital Services Act (DSA), “potrebbero non essere lo strumento più appropriato in questo momento”.

Il Digital Services Act: un’Arma a Doppio Taglio

Per comprendere la decisione di Bruxelles, è fondamentale analizzare il quadro normativo di riferimento: il Digital Services Act (DSA). Questa legge, entrata pienamente in vigore per le grandi piattaforme online (definite VLOPs, Very Large Online Platforms), impone a queste ultime obblighi stringenti sulla gestione dei rischi sistemici. Tra questi rischi rientrano a pieno titolo la diffusione di contenuti illegali, come il materiale pedopornografico, e gli effetti negativi sulla società, come la violenza di genere amplificata dai deepfake sessuali.

Il DSA conferisce alla Commissione il potere di imporre misure provvisorie in casi di urgenza, qualora si configuri un rischio di “danni gravi” per gli utenti. Queste misure, per loro natura temporanee e proporzionate, possono includere:

  • Modifiche agli algoritmi e ai sistemi di raccomandazione.
  • Un monitoraggio rafforzato su specifiche parole chiave o hashtag.
  • Ordini diretti per far cessare le presunte violazioni.

La scelta di non attivarle suggerisce che la Commissione, al momento, non ritiene che la situazione, per quanto grave, richieda un intervento d’urgenza che scavalchi la valutazione degli impegni presi da X.

L’Indagine Formale su X e Grok Prosegue

È cruciale sottolineare che la cautela sulle misure provvisorie non ferma l’indagine formale già avviata contro X a dicembre 2023 e recentemente ampliata proprio per includere le funzionalità di Grok. L’inchiesta mira a verificare se X abbia rispettato i suoi obblighi legali, in particolare se abbia condotto un’adeguata e preventiva valutazione dei rischi prima di integrare un potente strumento di IA generativa come Grok. La Commissione sta esaminando se la piattaforma abbia sottovalutato il potenziale di Grok nel creare materiale illegale e dannoso, trattando di fatto “i diritti dei cittadini europei, compresi quelli di donne e bambini, come danni collaterali”, per usare le dure parole della vicepresidente Virkkunen. Secondo dati resi noti dalla stessa X, Grok avrebbe generato oltre 5,5 miliardi di immagini in un solo mese, una cifra che dà la misura della potenziale scala del problema.

La Sfida Tecnologica e la Responsabilità delle Piattaforme

Dal punto di vista tecnico, il caso Grok solleva interrogativi fondamentali sulla natura dei modelli di IA generativa. Questi sistemi, addestrati su vastissimi dataset prelevati da internet, possono ereditare e replicare i bias e i contenuti tossici presenti nei dati di addestramento. Controllare e filtrare efficacemente la loro produzione creativa è una sfida ingegneristica complessa. Tuttavia, secondo la filosofia del DSA, la complessità tecnica non esime le piattaforme dalla responsabilità. La legge impone un approccio “by design”, che obbliga a progettare i sistemi tenendo conto della sicurezza e della mitigazione dei rischi fin dal principio, non a posteriori.

L’indagine della Commissione verificherà proprio questo: X ha implementato sufficienti barriere tecniche e di moderazione per impedire a Grok di diventare uno strumento di abuso su scala industriale? Gli “impegni” ora al vaglio di Bruxelles dovranno verosimilmente contenere rassicurazioni e prove concrete su questo fronte. Se ritenuti insufficienti, la Commissione potrebbe procedere con una decisione di non conformità, che può portare a sanzioni fino al 6% del fatturato globale dell’azienda.

La vicenda di Grok si configura quindi come un importante banco di prova per l’efficacia del Digital Services Act e, più in generale, per l’approccio europeo alla regolamentazione dell’intelligenza artificiale, che presto sarà ulteriormente rafforzato dal nuovo AI Act. La decisione finale su X non influenzerà solo il futuro della piattaforma di Musk in Europa, ma stabilirà un precedente cruciale per l’intero settore tecnologico.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *