![](https://roboreporter.it/wp-content/uploads/sites/2/2025/02/67ae49a036cbe.jpg)
L’allarme di Yoshua Bengio: una corsa pericolosa verso l’ignoto
La competizione tra le grandi aziende tecnologiche per lo sviluppo di intelligenze artificiali sempre più potenti sta sollevando serie preoccupazioni. Yoshua Bengio, informatico di fama mondiale e vincitore del Premio Turing nel 2018, ha espresso forti timori riguardo agli effetti “dannosi” di questa corsa frenetica. L’emergere di modelli come il cinese DeepSeek, caratterizzato da costi contenuti e prestazioni elevate, ha accelerato ulteriormente questa competizione, un fattore che, secondo Bengio, non favorisce la sicurezza.
Il rapporto sulla sicurezza dell’IA: un campanello d’allarme globale
Bengio è il supervisore dell’International AI Safety Report, un documento frutto del lavoro di circa 100 esperti provenienti da 30 paesi, dall’Ocse, dall’Unione Europea e dalle Nazioni Unite. Questo rapporto, nato da un’iniziativa del summit britannico sulla sicurezza del 2023, sarà discusso formalmente al Summit di Parigi sull’IA del 10 e 11 febbraio. Il documento evidenzia i rischi già ampiamente riconosciuti dell’IA, come la creazione di contenuti online falsi o fuorvianti e l’impatto sul mondo del lavoro. Tuttavia, Bengio sottolinea che “emergono costantemente prove di rischi aggiuntivi, come attacchi biologici o informatici”. A lungo termine, il ricercatore teme addirittura una possibile “perdita di controllo” sull’IA.
Regolamentazione e ricerca: le chiavi per un futuro sicuro
Bengio chiede una regolamentazione internazionale più severa e una ricerca più approfondita sulla sicurezza dell’intelligenza artificiale. Attualmente, la ricerca sulla sicurezza rappresenta “una piccola parte” dei massicci investimenti effettuati nel settore. “Senza l’intervento del governo, non so come riusciremo a superare questa situazione”, ha aggiunto, riferendosi alla decisione degli Stati Uniti di abbandonare il tentativo dell’ex presidente Biden di imporre regole allo sviluppo dell’IA.
La possibilità di estinzione: uno scenario da non sottovalutare
Bengio ha rivelato che, quando ChatGpt di OpenAI ha fatto il suo debutto pubblico due anni fa, ha sentito l’urgenza di pensare alla questione della sicurezza dell’IA. “Ciò che mi spaventa di più è la possibilità che l’umanità possa scomparire entro 10 anni”, ha affermato. Il rapporto riconosce questi timori, ma sottolinea che le opinioni al riguardo variano “notevolmente”.
DeepSeek: l’IA cinese che accelera la competizione
L’emergere di DeepSeek, un modello di intelligenza artificiale sviluppato in Cina, ha ulteriormente intensificato la competizione nel settore. Questo modello, caratterizzato da costi inferiori e prestazioni elevate, rappresenta una sfida per le aziende occidentali e contribuisce ad accelerare la corsa allo sviluppo dell’IA. La competizione tra diversi modelli di IA può portare a una diminuzione degli standard di sicurezza, poiché le aziende potrebbero essere tentate di rilasciare nuovi prodotti il più rapidamente possibile per ottenere un vantaggio competitivo.
Un appello alla responsabilità e alla prudenza
La presa di posizione di Yoshua Bengio è un campanello d’allarme che non possiamo ignorare. La sua autorevolezza e la sua profonda conoscenza del settore ci obbligano a riflettere seriamente sui rischi connessi allo sviluppo incontrollato dell’intelligenza artificiale. È fondamentale che i governi, le aziende e la comunità scientifica collaborino per definire standard di sicurezza rigorosi e per investire nella ricerca di soluzioni che mitighino i potenziali pericoli. La sopravvivenza dell’umanità potrebbe dipendere dalla nostra capacità di agire con responsabilità e prudenza.