La corsa all’IA per svelare il volto del sospettato
In seguito al tragico assassinio dell’attivista di destra Charlie Kirk, l’FBI ha rilasciato alcune immagini sfocate del presunto responsabile. Quasi immediatamente, una moltitudine di utenti online ha fatto ricorso a strumenti di intelligenza artificiale per cercare di migliorare la qualità delle immagini e svelare l’identità del killer.
Come riportato da The Verge, gli strumenti di IA utilizzati non sono in grado di estrapolare dettagli nascosti, ma piuttosto di dedurre e ricostruire elementi potenzialmente presenti nell’immagine originale. Questo processo può portare alla creazione di dettagli che in realtà non esistono, sollevando dubbi sull’affidabilità delle immagini generate.
Oggi, la maggior parte degli smartphone di ultima generazione integra funzionalità di IA nelle proprie app fotografiche, consentendo agli utenti di modificare e manipolare le immagini con estrema facilità. Questa accessibilità ha alimentato la diffusione di immagini generate dall’IA sui social media e sui forum online, mostrando possibili ricostruzioni del volto del sospettato, basate sui fotogrammi diffusi dall’FBI.
Grok e ChatGPT: tra ricostruzioni e disinformazione
Molte delle varianti del volto del sospettato sono state generate da Grok, l’IA di X (ex Twitter), e da ChatGPT. Tuttavia, The Verge sottolinea che è improbabile che queste immagini siano di reale aiuto all’FBI, servendo principalmente per generare engagement e “facili like”.
Successivamente, lo Stato dello Utah ha rilasciato immagini più nitide del giovane, rivelando dettagli come lo zaino e le scarpe. Tuttavia, la diffusione di informazioni errate da parte dei chatbot di IA continua a destare preoccupazione.
Il portale The Hindu riporta esempi di risposte errate fornite da Grok e ChatGPT, che identificano falsamente l’assassino come un democratico dello Utah di nome Michael Mallinson, attribuendo l’informazione a fonti inesistenti come la CNN e il New York Times.
Il rischio di disinformazione nell’era dell’IA
The Hindu evidenzia come le notizie di cronaca spesso inneschino una frenetica ricerca di informazioni sui social media, portando a conclusioni affrettate e false che i chatbot ripropongono, contribuendo ad alimentare il caos informativo.
Questo episodio mette in luce i rischi legati all’utilizzo dell’IA per l’analisi e la diffusione di informazioni in contesti delicati come le indagini penali. La capacità dell’IA di generare immagini e testi realistici può facilmente portare alla diffusione di notizie false e teorie del complotto, con conseguenze potenzialmente gravi per l’opinione pubblica e per il corso delle indagini.
È fondamentale sviluppare strumenti e protocolli per contrastare la disinformazione generata dall’IA, promuovendo un utilizzo responsabile e consapevole di queste tecnologie.
Un’arma a doppio taglio
L’utilizzo dell’IA per migliorare le immagini e supportare le indagini è un’arma a doppio taglio. Da un lato, può accelerare l’identificazione di sospetti e fornire elementi utili alle forze dell’ordine. Dall’altro, rischia di diffondere disinformazione e alimentare teorie complottiste, minando la fiducia del pubblico nelle istituzioni e nei media. È cruciale adottare un approccio cauto e critico, verificando sempre le informazioni provenienti da fonti non ufficiali e affidandosi alle indagini delle autorità competenti.
