Nel cuore pulsante della Silicon Valley, dove nascono le tecnologie che modellano il nostro domani, una nuova iniziativa si propone di introdurre un principio tanto antico quanto necessario: la verifica indipendente. Miles Brundage, ex responsabile delle politiche di OpenAI, ha annunciato la creazione dell’AI Verification and Evaluation Research Institute (Averi), un’organizzazione no-profit con una missione chiara e audace: spingere le aziende che sviluppano intelligenze artificiali a sottoporre i loro modelli a valutazioni di enti terzi. Una mossa che mira a colmare un vuoto di responsabilità in un settore in cui, come afferma lo stesso Brundage, “ognuno scrive le proprie regole”.

Dall’interno della “scatola nera” alla richiesta di trasparenza

La decisione di Brundage non è estemporanea, ma frutto di sette anni di esperienza all’interno di OpenAI, uno dei laboratori di ricerca sull’IA più avanzati al mondo. Uscito dall’azienda nell’ottobre del 2024, dove ricopriva il ruolo di consulente per la preparazione all’avvento di un’intelligenza artificiale generale (AGI), Brundage ha maturato la convinzione che l’industria non possa più “valutare i propri compiti”. La sua partenza si inserisce in una serie di uscite di alto profilo da OpenAI, alimentando il dibattito sulla direzione dell’azienda e sul suo impegno per uno sviluppo responsabile dell’IA. Brundage stesso aveva espresso preoccupazione per la mancanza di preparazione del mondo all’AGI, un sentimento condiviso, a suo dire, anche dalla leadership di OpenAI.

Attualmente, sebbene i principali laboratori di IA conducano test di sicurezza e pubblichino report tecnici, consumatori, aziende e governi devono fidarsi ciecamente di quanto dichiarato. Manca un obbligo legale o uno standard condiviso che imponga valutazioni esterne, lasciando un’ampia discrezionalità ai giganti tecnologici. È proprio questo il “selvaggio West” normativo che Averi intende regolamentare.

Il ruolo di Averi: non un revisore, ma un coordinatore di standard

L’approccio di Averi non è quello di diventare un revisore diretto dei modelli di IA. L’istituto, che ha già raccolto 7,5 milioni di dollari da un gruppo di finanziatori che include ex dirigenti della Silicon Valley, si posizionerà piuttosto come un coordinatore e un think tank. Il suo obiettivo è definire gli standard e i protocolli che società di consulenza, compagnie di assicurazione e startup specializzate in sicurezza dovranno seguire per effettuare audit rigorosi e imparziali.

Insieme all’annuncio della sua nascita, Averi ha pubblicato sul proprio sito ufficiale un documento di ricerca che delinea un quadro di “garanzia dell’IA” (AI Assurance Levels). Questo sistema a più livelli, sviluppato in collaborazione con oltre 30 ricercatori, propone una scala di valutazione che va dal livello 1, con test generali, fino al livello 4, che copre requisiti di sicurezza internazionali “a prova di trattato” per i modelli più potenti. L’idea è di creare una tassonomia della fiducia, permettendo di valutare non solo il modello in sé, ma anche l’infrastruttura hardware, le pratiche di governance aziendale e i dati di addestramento.

Perché la verifica di terze parti è cruciale?

La necessità di una valutazione esterna e imparziale per i sistemi di IA avanzati è un tema sempre più dibattuto. Ecco alcuni punti chiave che ne sottolineano l’urgenza:

  • Mitigazione dei rischi: Modelli di IA sempre più potenti possono presentare rischi significativi, dalla generazione di disinformazione su larga scala a vulnerabilità di sicurezza informatica, fino a potenziali minacce esistenziali.
  • Aumento della fiducia: Per favorire un’adozione su larga scala e responsabile dell’IA, è fondamentale che il pubblico, le imprese e i governi possano fidarsi della sicurezza e dell’affidabilità di questi sistemi. La verifica indipendente è un pilastro per costruire questa fiducia.
  • Prevenzione dei conflitti di interesse: Lasciare che le aziende valutino i propri prodotti crea un evidente conflitto di interesse. Una supervisione esterna garantisce che le considerazioni di sicurezza non vengano subordinate a obiettivi commerciali.
  • Standardizzazione del settore: L’assenza di benchmark universali porta a una frammentazione delle pratiche di sicurezza. Averi mira a creare un linguaggio comune e standard condivisi per la valutazione dei rischi.

Brundage immagina un futuro in cui diversi attori spingeranno per l’adozione di questi audit: dalle compagnie di assicurazione che richiederanno verifiche prima di sottoscrivere polizze, agli investitori che esigeranno prove di sicurezza prima di finanziare nuovi progetti.

Un contesto normativo in evoluzione

L’iniziativa di Averi si inserisce in un panorama globale in cui la regolamentazione dell’IA sta diventando una priorità per i governi. L’Unione Europea ha fatto da apripista con l’AI Act, la prima legge organica al mondo sull’intelligenza artificiale, che adotta un approccio basato sul rischio e prevede obblighi specifici per i sistemi ad alto rischio. Anche altre nazioni stanno lavorando a quadri normativi per garantire uno sviluppo etico e sicuro dell’IA. L’operato di Averi potrebbe fornire un contributo tecnico fondamentale per l’implementazione pratica di queste normative, definendo quegli standard di valutazione che le leggi richiedono.

La sfida, come riconosciuto dallo stesso Brundage, sarà complessa. Sarà necessario formare una nuova generazione di auditor con competenze ibride, che spaziano dalla meccanica quantistica dell’IA alla governance aziendale. Inoltre, bisognerà garantire che questi revisori abbiano un accesso sufficientemente profondo ai modelli e ai dati delle aziende, superando le legittime preoccupazioni per la proprietà intellettuale e la sicurezza.

Con la nascita di Averi, il dibattito sulla governance dell’intelligenza artificiale entra in una nuova fase. Non si tratta più solo di discutere se regolamentare, ma di definire come farlo in modo efficace, rigoroso e trasparente. La proposta di Miles Brundage è un passo deciso verso un futuro in cui la potenza dell’IA sia bilanciata da una responsabilità altrettanto grande, verificata non solo da chi la crea, ma da un ecosistema di fiducia condiviso.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *