Trasparenza e controllo sull’IA generativa
YouTube ha aggiornato le sue politiche di utilizzo per aumentare la trasparenza riguardo all’impiego dell’intelligenza artificiale generativa nei contenuti video. La piattaforma di Google permetterà agli utenti di segnalare video che utilizzano l’IA per imitare volti e voci di personaggi famosi o di persone reali. In caso di segnalazione, il presunto trasgressore avrà 48 ore per rimuovere il contenuto contestato. Se il video verrà rimosso entro il termine stabilito, il caso verrà chiuso, altrimenti l’utente rischia la chiusura dell’account.
Criteri di valutazione
YouTube ha chiarito che la decisione sulla rimozione dei contenuti verrà presa in base a diversi fattori. L’azienda valuterà se il contenuto è alterato, facilmente identificabile con una persona reale o troppo realistico. Verrà considerato anche se il video rientra nella categoria della parodia o della satira. Un fattore chiave è la presenza di un personaggio pubblico coinvolto in “comportamenti sensibili”, come crimini, violenza o promozione di prodotti o candidati politici.
Protezione della privacy e anno elettorale
Il sito specializzato TechCrunch ha evidenziato l’importanza di questa nuova politica durante l’anno elettorale negli Stati Uniti. YouTube ha confermato che sta lavorando su un processo di privacy aggiornato per consentire agli utenti di richiedere la rimozione di contenuti generati dall’IA o video sintetici che simulano un individuo identificabile. La rimozione includerà la completa eliminazione del filmato, compreso il nome e le informazioni personali della persona dal titolo, dalla descrizione e dai tag.
Opzioni di mitigazione
Oltre alla rimozione completa, YouTube offre l’opzione di sfocare i volti delle persone nel video, rendendole non riconoscibili. Non è invece possibile aggirare le norme rendendo il contenuto “privato”, poiché il creatore potrebbe in qualsiasi momento renderlo pubblico.
Un passo avanti nella regolamentazione dell’IA
Le nuove politiche di YouTube rappresentano un passo importante nella regolamentazione dell’intelligenza artificiale generativa, soprattutto in relazione alla protezione della privacy e all’utilizzo responsabile di tecnologie come le deepfake. L’azienda si dimostra sensibile alle potenziali implicazioni negative di queste tecnologie e cerca di fornire strumenti per mitigare i rischi.