
L’Infiltrazione della Propaganda Russa nei Chatbot
Un’indagine approfondita condotta da NewsGuard, una piattaforma specializzata nel monitoraggio della disinformazione online, ha portato alla luce una preoccupante realtà: i principali sistemi di intelligenza artificiale (IA) sono stati infiltrati da una massiccia campagna di propaganda pro-Cremlino. Secondo l’analisi, circa 3,6 milioni di articoli propagandistici sono stati immessi nei sistemi di IA, con l’obiettivo di manipolare le risposte fornite dai chatbot agli utenti di tutto il mondo.
La rete di disinformazione, denominata Pravda (‘verità’ in russo), è responsabile della diffusione di queste narrazioni false attraverso una vasta rete di siti web e canali online. L’obiettivo principale è influenzare l’opinione pubblica e minare la fiducia nelle istituzioni occidentali, promuovendo al contempo gli interessi geopolitici della Russia.
Test sui Chatbot: Risultati Allarmanti
Per valutare l’entità dell’infiltrazione, NewsGuard ha condotto una serie di test sui 10 principali chatbot disponibili sul mercato, tra cui ChatGPT-4o di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini di Google e il motore di risposta di Perplexity. I chatbot sono stati esposti a un campione di 15 false narrazioni promosse dalla rete Pravda tra aprile 2022 e febbraio 2025.
I risultati sono stati a dir poco preoccupanti. L’audit ha rivelato che i principali chatbot hanno ripetuto false narrazioni provenienti dalla rete Pravda nel 33% dei casi. Questo significa che un terzo delle risposte generate dai chatbot conteneva affermazioni false o distorte, riciclate dalla rete di disinformazione russa.
La Rete Pravda: Un Hub Centrale di Disinformazione
La rete Pravda, composta da circa 150 siti web pro-Mosca, si è rivelata un hub centrale per il riciclaggio di disinformazione. Da aprile 2022 a febbraio 2025, la rete ha diffuso un totale di 207 affermazioni false, che sono state poi riprese e amplificate dai chatbot di IA.
Le narrazioni false promosse dalla rete Pravda spaziano da affermazioni infondate sui laboratori segreti di armi biologiche gestiti dagli Stati Uniti in Ucraina, a storie inventate sull’arricchimento personale del presidente ucraino Zelensky grazie agli aiuti militari statunitensi, promosse dal fuggitivo statunitense diventato propagandista del Cremlino, John Mark Dougan.
Queste false narrazioni sono progettate per seminare discordia, minare la fiducia nelle istituzioni democratiche e giustificare le azioni aggressive della Russia in Ucraina e in altre parti del mondo. La loro diffusione attraverso i chatbot di IA rappresenta una seria minaccia alla sicurezza informativa e alla stabilità globale.
Implicazioni e Contromisure
La scoperta di NewsGuard solleva interrogativi cruciali sulla sicurezza e l’affidabilità dei sistemi di intelligenza artificiale. Se i chatbot possono essere facilmente manipolati per diffondere propaganda e disinformazione, la loro utilità e la loro credibilità sono seriamente compromesse.
È fondamentale che le aziende che sviluppano e gestiscono i sistemi di IA adottino misure rigorose per contrastare la disinformazione e proteggere i propri utenti. Queste misure dovrebbero includere:
- Migliorare i meccanismi di rilevamento e filtraggio della disinformazione.
- Verificare la veridicità delle informazioni prima di incorporarle nei sistemi di IA.
- Collaborare con esperti di disinformazione e fact-checking per identificare e contrastare le campagne di propaganda.
- Sensibilizzare gli utenti sui rischi della disinformazione e fornire strumenti per riconoscere e segnalare contenuti sospetti.
Solo attraverso un approccio coordinato e proattivo è possibile proteggere i sistemi di IA dalla disinformazione e garantire che siano utilizzati per promuovere la verità e la conoscenza, anziché la propaganda e la manipolazione.
Riflessioni sulla Fragilità dell’Informazione nell’Era dell’IA
La notizia dell’infiltrazione di propaganda pro-Cremlino nei sistemi di intelligenza artificiale solleva serie preoccupazioni sulla fragilità dell’informazione nell’era digitale. La facilità con cui le narrazioni false possono essere diffuse e amplificate attraverso i chatbot evidenzia la necessità di un approccio critico e consapevole all’utilizzo di queste tecnologie. È essenziale che gli utenti siano consapevoli dei rischi della disinformazione e che le aziende che sviluppano i sistemi di IA adottino misure rigorose per proteggere l’integrità delle informazioni.