Un comitato per la sicurezza per GPT-5
OpenAI, la società dietro ChatGpt, ha annunciato la formazione di un nuovo comitato per la sicurezza in seguito alla partenza di dirigenti chiave che ha sollevato preoccupazioni sul suo impegno nel mitigare i pericoli dell’intelligenza artificiale. Il comitato, che includerà il Ceo Sam Altman, avrà il compito di valutare i processi e le misure di salvaguardia relative allo sviluppo avanzato dell’IA. La sua attenzione sarà rivolta in particolare a GPT-5, un nuovo modello di IA generativa che OpenAI sta addestrando e che potrebbe avvicinarsi all’AGI, un’intelligenza artificiale generale in grado di raggiungere un livello di comprensione e ragionamento simile a quello umano o addirittura superiore.
“Accogliamo con favore un forte dibattito in questo momento importante”, scrive OpenAI in un post ufficiale. Il Safety and Security Committee, composto da membri del consiglio e dirigenti, avrà 90 giorni per valutare i processi e le misure di salvaguardia relative allo sviluppo avanzato dell’IA. Il comitato consulterà anche esperti esterni e svilupperà raccomandazioni per potenziali miglioramenti. I risultati saranno presentati all’intero consiglio di OpenAI prima di essere resi pubblici.
Preoccupazioni sulla sicurezza di OpenAI
La formazione del nuovo comitato di sicurezza arriva sulla scia delle recenti fuoriuscite di dirigenti che hanno alimentato preoccupazioni sulle priorità di sicurezza di OpenAI. Jan Leike, che ha lasciato OpenAI per unirsi alla rivale Anthropic, e Ilya Sutskever, uno dei dirigenti che a novembre scorso mise in discussione il ruolo di Sam Altman, sono solo due esempi. La partenza di questi dirigenti ha suscitato dubbi sul fatto che OpenAI stia dando la priorità alla sicurezza e all’etica nello sviluppo della sua tecnologia.
La polemica con Scarlett Johansson
Nei giorni in cui i manager hanno lasciato, è anche scoppiata la polemica tra Scarlett Johansson e OpenAI. L’attrice, diventata un simbolo dell’IA dopo il film Her, ha accusato la società di aver clonato la sua voce per la nuova versione di ChatGpt. Questa accusa ha ulteriormente alimentato le preoccupazioni sulla mancanza di trasparenza e sul potenziale abuso della tecnologia da parte di OpenAI.
Un equilibrio delicato
La formazione del comitato per la sicurezza è un passo positivo, ma è fondamentale che OpenAI non sacrifichi l’innovazione in nome della sicurezza. L’IA ha il potenziale per rivoluzionare la nostra società, ma è essenziale che lo sviluppo avvenga in modo responsabile e etico. La creazione di un comitato indipendente e la consultazione con esperti esterni sono passi importanti per garantire che OpenAI non perda di vista le implicazioni etiche e sociali della sua tecnologia.