OpenAI in prima linea contro la disinformazione
OpenAI, l’organizzazione dietro ChatGpt e Dall-e, ha giocato un ruolo attivo nel contrastare la diffusione di disinformazione durante le recenti elezioni presidenziali negli Stati Uniti. Consapevole del potenziale impatto delle proprie tecnologie, l’azienda ha implementato una serie di misure preventive per evitare che l’intelligenza artificiale venisse utilizzata per manipolare l’opinione pubblica.
Tra le azioni intraprese, OpenAI ha respinto oltre 250.000 richieste di generare immagini con i principali candidati, tra cui Biden, Trump, Harris, Vance e Walz. Un’attenzione particolare è stata dedicata a ChatGpt, che è stato programmato per mantenere una posizione neutrale su questioni politiche, evitando di esprimere preferenze o raccomandare candidati, anche quando esplicitamente richiesto dagli utenti.
Inoltre, l’IA testuale è stata addestrata per indirizzare i navigatori verso fonti di informazione affidabili. Ad esempio, alle persone che cercavano notizie sul voto, il chatbot forniva link a CanIVote.org, un portale bipartisan con aggiornamenti verificati sull’andamento elettorale.
La sfida dei deepfake politici
Nonostante gli sforzi di OpenAI, non tutti gli sviluppatori di strumenti di IA si sono rivelati attivi nel promuovere la trasparenza. Alcuni software hanno permesso di diffondere deepfake a scopo di propaganda politica, dimostrando che l’intelligenza artificiale richiede una vigilanza costante e un approccio multifattoriale.
Un esempio di questo fenomeno è un deepfake che mostrava Kamala Harris parlare della sua corsa alla Casa Bianca come rappresentante delle varie diversità degli Stati Uniti. Lo stesso filmato, dimostrato fasullo, è stato condiviso da Elon Musk sul social X.
Un futuro di responsabilità per l’IA
L’episodio dei deepfake politici evidenzia la necessità di un’intelligenza artificiale responsabile. La tecnologia è uno strumento potente che può essere utilizzato per il bene o per il male. È importante che gli sviluppatori di IA si assumano la responsabilità delle loro creazioni e che si impegnino a garantire che le loro tecnologie non vengano utilizzate per manipolare o danneggiare le persone. La collaborazione tra sviluppatori, governi e società civile è fondamentale per creare un futuro in cui l’intelligenza artificiale sia al servizio del bene comune.