L’Intelligenza Artificiale al servizio della disinformazione
Meta, nel suo primo rapporto trimestrale sulla sicurezza dedicato all’uso dell’intelligenza artificiale generativa, ha annunciato la rimozione di numerosi account falsi su Facebook e Instagram. Questi account, probabilmente generati dall’IA, sono stati utilizzati per campagne di disinformazione e propaganda, con l’obiettivo di influenzare l’opinione pubblica.
Tra i casi più eclatanti, spicca quello della società di marketing politico Stoic, con sede a Tel Aviv, accusata di aver utilizzato account falsi per diffondere commenti che elogiavano la gestione della guerra a Gaza da parte di Israele.
Il rischio per le elezioni del 2024
L’uso crescente dell’intelligenza artificiale per manipolare l’opinione pubblica rappresenta una seria minaccia per le elezioni del 2024. La diffusione di notizie false e la creazione di contenuti ingannevoli potrebbero influenzare il voto degli elettori e minare la fiducia nelle istituzioni democratiche.
David Agranovich, a capo del team che si occupa di minacce online presso Meta, ha riconosciuto che le difese esistenti sono efficaci nel contrastare le campagne di disinformazione basate sull’IA, ma ha sottolineato che le reti di propaganda continueranno a sviluppare nuove tattiche man mano che la tecnologia si evolve.
Altre operazioni ingannevoli smantellate
Il rapporto di Meta evidenzia anche la chiusura di altre operazioni ingannevoli nel primo trimestre. Tra queste, una rete con sede in Iran focalizzata sul conflitto Israele-Hamas, sebbene non sia stato identificato alcun utilizzo dell’intelligenza artificiale generativa in questa campagna.
Chiusa anche una rete cinese di disinformazione detta Operazione K, che avrebbe utilizzato l’IA per lanciare un falso movimento di attivisti pro-Sikh, una minoranza religiosa in India.
Un gruppo legato alla Russia, Doppelganger, ha provato negli ultimi 20 mesi attraverso i social media a ridurre il sostegno all’Ucraina, ma senza molto successo.
L’evoluzione della disinformazione
Meta ha riconosciuto che gli “attori delle minacce” hanno tentato di utilizzare l’intelligenza artificiale generativa per sviluppare foto, video o testi falsi. Tuttavia, le immagini di personaggi politici al momento non sono ancora sufficientemente realistiche per ingannare gli utenti.
La continua evoluzione della tecnologia dell’intelligenza artificiale generativa pone una sfida crescente per le piattaforme social e per le istituzioni democratiche. La lotta contro la disinformazione richiede un impegno costante e una collaborazione tra governi, società civile e aziende tecnologiche.
La sfida della disinformazione nell’era digitale
L’uso dell’intelligenza artificiale per manipolare l’opinione pubblica è una sfida complessa che richiede un approccio multiforme. Le piattaforme social devono investire in tecnologie di rilevamento e rimozione dei contenuti falsi, mentre i governi devono adottare politiche che promuovano la trasparenza e la responsabilità nell’uso dell’IA. La società civile, infine, ha un ruolo fondamentale nell’educare la popolazione sui rischi della disinformazione e nell’incoraggiare un consumo critico dei contenuti online.