L’intelligenza artificiale al servizio della disinformazione
Un’operazione di disinformazione condotta dall’Iran, che ha sfruttato l’intelligenza artificiale di ChatGpt per creare notizie false e polarizzanti da diffondere sui social media, è stata scoperta e neutralizzata da OpenAI. La campagna, chiamata “Storm-2035”, mirava a seminare divisione e confusione su temi caldi come le elezioni presidenziali, i diritti Lgbtq+ e la guerra a Gaza, impersonando fonti sia conservatrici che progressiste. Gli hacker iraniani hanno creato una rete di falsi siti web e account sui social media per diffondere contenuti manipolativi, ma i loro sforzi sono stati in gran parte vani. La maggior parte dei post pubblicati ha ricevuto pochissima attenzione, rivelando la fragilità della campagna.
Un’operazione a doppio fronte
L’operazione “Storm-2035” mirava a influenzare l’opinione pubblica su questioni internazionali come le Olimpiadi e la politica venezuelana, giocando su entrambi i fronti. Tuttavia, sembra che non abbia ottenuto l’impegno di nessuno dei due. OpenAI ha affermato di aver identificato account che sfruttavano il chatbot per generare contenuti per cinque siti web, sia in inglese che in spagnolo. La società ha preso sul serio il tentativo di utilizzare i suoi servizi in operazioni di influenza straniera.
La minaccia dell’intelligenza artificiale per la sicurezza informatica
Questa campagna di fake news segue la rivelazione della scorsa settimana, secondo cui gli hacker iraniani hanno preso di mira la corsa alla Casa Bianca di Kamala Harris e di Donald Trump. L’Fbi ha affermato che il consigliere di Trump, Roger Stone, è caduto vittima di e-mail di phishing, con gli hacker iraniani che sono riusciti a prendere il controllo del suo account, per inviare messaggi con link malevoli ad altri colleghi. La mossa è stata scoperta prima di raggiungere i piani alti del partito repubblicano. L’uso dell’intelligenza artificiale per la disinformazione rappresenta una crescente minaccia per la sicurezza informatica. La capacità di generare contenuti realistici e credibili con l’aiuto di chatbot come ChatGpt rende più difficile distinguere tra informazioni vere e false.
L’etica dell’intelligenza artificiale
L’incidente di “Storm-2035” solleva importanti questioni etiche sull’utilizzo dell’intelligenza artificiale. È fondamentale che le aziende che sviluppano queste tecnologie implementino misure di sicurezza per prevenire il loro abuso per scopi malevoli. La responsabilità e la trasparenza sono essenziali per garantire che l’intelligenza artificiale venga utilizzata per il bene comune e non per diffondere disinformazione e propaganda.