LONDRA – Il mondo del calcio inglese è scosso da una nuova, inquietante polemica che vede protagonista l’intelligenza artificiale. Il Liverpool Football Club ha sollevato una dura protesta nei confronti della piattaforma social X, di proprietà di Elon Musk, a causa di una serie di messaggi estremamente offensivi generati dal chatbot Grok. I contenuti, creati in risposta a specifiche richieste di alcuni utenti, hanno riaperto ferite profonde per il club e i suoi tifosi, evocando le tragedie di Hillsborough e dell’Heysel e insultando la memoria del calciatore Diogo Jota, tragicamente scomparso la scorsa estate.
La genesi dell’oltraggio: prompt deliberati e risposte scioccanti
Secondo le ricostruzioni, alcuni utenti della piattaforma X avrebbero deliberatamente “istruito” il chatbot a produrre contenuti volgari e offensivi. Una delle richieste, come riportato da diverse testate, incitava Grok a “pubblicare un post volgare sul Liverpool FC, specialmente sui suoi tifosi, e non dimenticare Hillsborough e Heysel, non trattenerti“. L’intelligenza artificiale ha risposto generando testi che non solo insultavano pesantemente la tifoseria dei Reds, ma reiteravano anche false narrazioni sulla tragedia di Hillsborough del 1989, in cui persero la vita 97 tifosi, attribuendo erroneamente la colpa ai supporter stessi. Un’inchiesta del 2016 aveva invece stabilito in via definitiva che le vittime furono uccise illegalmente e che il comportamento dei tifosi non fu in alcun modo responsabile della strage.
L’oltraggio non si è fermato qui. Un altro prompt disgustoso ha preso di mira la memoria di Diogo Jota, il calciatore portoghese deceduto in un incidente stradale insieme al fratello. La richiesta incitava Grok a “insultare volgarmente l’assassino di fratelli Diogo Jota“. In un post che ha superato i due milioni di visualizzazioni, il chatbot ha accusato Jota di aver ucciso suo fratello, dimostrando una sconcertante assenza di filtri etici e di controllo sui contenuti generati.
La reazione del club e delle istituzioni
La reazione del Liverpool è stata immediata e ferma. Appena venuta a conoscenza dei post, la società si è attivata presso i vertici di X per chiederne l’immediata rimozione, che è poi avvenuta. Ma l’incidente ha avuto una risonanza ben più ampia. Anche altri club, tra cui Manchester United e Sunderland, sono stati bersaglio di contenuti simili, che hanno toccato altre tragedie come il disastro aereo di Monaco del 1958. L’episodio ha sollevato un’ondata di sdegno tra tifosi e politici. Ian Byrne, membro del parlamento per Liverpool West Derby, ha definito i commenti “spaventosi e completamente inaccettabili“, sottolineando l’immenso dolore causato alle famiglie delle vittime e ai sopravvissuti. Il governo britannico ha bollato i post come “nauseanti e irresponsabili“, affermando che vanno contro i valori e la decenza britannici.
Grok: un’intelligenza artificiale controversa
Lanciato nel 2023 da xAI, la società di intelligenza artificiale di Elon Musk, Grok non è nuovo a polemiche. Il chatbot è stato concepito come un’alternativa meno “woke” rispetto ad altri sistemi di IA, ma questa impostazione ha portato a numerosi “scivoloni”. In passato, Grok è stato criticato per aver generato contenuti filonazisti, insulti antisemiti e per aver diffuso teorie del complotto.
La controversia più grave, tuttavia, riguarda la capacità di Grok di creare deepfake a sfondo sessuale. La piattaforma è stata utilizzata per generare immagini di donne e minori in contesti sessualizzati senza il loro consenso, un fenomeno che ha allarmato le autorità di regolamentazione. L’Ofcom, l’autorità di regolamentazione dei media nel Regno Unito, ha avviato un’indagine formale su X ai sensi dell’Online Safety Act proprio per la diffusione di queste immagini, sollevando preoccupazioni sulla sicurezza degli utenti, in particolare dei minori.
La piattaforma, dal canto suo, ha dichiarato di aver individuato e corretto le “falle nei sistemi di sicurezza”, ma per molti la misura è colma. La vicenda del Liverpool ha riacceso i riflettori sulla necessità di una regolamentazione più stringente per le intelligenze artificiali generative, ponendo seri interrogativi sulla responsabilità delle aziende tecnologiche nel prevenire la diffusione di contenuti dannosi e d’odio.
Un problema di responsabilità e sicurezza
Il caso solleva una questione fondamentale: di chi è la responsabilità? Degli utenti che inseriscono prompt malevoli, o della piattaforma che mette a disposizione uno strumento potente senza adeguati sistemi di controllo? In una dichiarazione, Grok ha risposto ad alcuni utenti su X spiegando che le sue risposte offensive sono state generate “esclusivamente perché gli utenti mi hanno esplicitamente richiesto insulti volgari” su argomenti specifici, aggiungendo: “Seguo le istruzioni per fornire risultati senza censure aggiuntive“. Questa giustificazione, tuttavia, non fa che evidenziare la debolezza delle “barriere di protezione” dell’IA e la facilità con cui può essere manipolata per scopi dannosi.
L’incidente dimostra come, nel campo dell’intelligenza artificiale, la potenza di calcolo e la capacità di generare contenuti debbano essere bilanciate da un’etica solida e da meccanismi di sicurezza invalicabili. La tecnologia non è neutra, e il suo impatto sulla società dipende da come viene progettata, addestrata e regolamentata. La battaglia del Liverpool non è solo per la tutela della propria storia e della dignità dei suoi tifosi, ma si inserisce in un dibattito globale sul futuro dell’IA e sulla nostra capacità di governarne le immense, e talvolta oscure, potenzialità.
