Nel cuore pulsante della Silicon Valley, dove l’innovazione corre a velocità inimmaginabili, emerge una nuova e fondamentale esigenza: quella di garantire che la corsa all’intelligenza artificiale non sacrifichi la sicurezza e l’etica sull’altare della competizione. A farsi portavoce di questa istanza è una figura di spicco del settore, Miles Brundage, che dopo aver trascorso sette anni a capo della ricerca sulle policy di OpenAI, ha annunciato la creazione dell’AI Verification and Evaluation Research Institute (Averi). Si tratta di un’organizzazione no-profit con una missione tanto chiara quanto ambiziosa: rendere universali ed efficaci gli audit di terze parti per i sistemi di IA più avanzati, noti come “frontier AI”.

L’iniziativa di Brundage, che ha lasciato OpenAI nell’ottobre del 2024, nasce da una consapevolezza maturata dall’interno: le aziende che sviluppano le intelligenze artificiali più potenti stanno, di fatto, definendo autonomamente le norme e i protocolli di sicurezza. “In un certo senso, oggi ognuno scrive le proprie regole”, ha dichiarato Brundage a Fortune, evidenziando una lacuna critica nell’attuale ecosistema dell’IA. Sebbene i principali laboratori conducano test interni e pubblichino report tecnici, spesso in collaborazione con team esterni di “red teaming”, manca un quadro di riferimento standardizzato e, soprattutto, una verifica realmente indipendente che possa garantire a consumatori, aziende e governi l’affidabilità di tali valutazioni.

Una “guardia” indipendente per l’IA

Averi non si propone come un revisore diretto, bensì come un coordinatore e un catalizzatore per la definizione di standard rigorosi. L’obiettivo è creare un ecosistema in cui società di consulenza, compagnie di assicurazione e startup specializzate in sicurezza possano operare secondo linee guida condivise e affidabili. Per avviare questo ambizioso progetto, Averi ha già raccolto 7,5 milioni di dollari da un gruppo di finanziatori che include ex dirigenti della Silicon Valley e persino dipendenti di altre aziende di IA, i quali, secondo Brundage, “sanno dove sono sepolti i corpi” e desiderano una maggiore responsabilità nel settore. L’obiettivo di raccolta fondi è di 13 milioni di dollari per sostenere uno staff di 14 persone.

L’urgenza di una verifica esterna è amplificata dalla crescente potenza e complessità dei modelli di IA. Il rischio, come sottolineato da Averi, non deriva solo dai modelli in sé, ma dall’interazione tra sistemi digitali, hardware e pratiche di governance. Una valutazione isolata di un modello non è sufficiente a garantire la sicurezza dell’intero sistema. Per questo, l’istituto ha già pubblicato un documento di ricerca, redatto in collaborazione con oltre 30 esperti di sicurezza dell’IA, che introduce un framework denominato “AI Assurance Levels” (AAL).

I livelli di garanzia dell’IA (AAL)

Il sistema proposto da Averi si articola in quattro livelli crescenti di verifica, pensati per rendere leggibile e comparabile il rigore degli audit:

  • AAL-1: Test generali e di base condotti da terze parti.
  • AAL-2 e AAL-3: Livelli intermedi con requisiti di sicurezza e analisi più approfondite.
  • AAL-4: Il livello più alto, che copre i requisiti internazionali sulla sicurezza dell’IA e prevede una verifica continua e resistente ai tentativi di inganno.

Questo approccio mira a trasformare le valutazioni esterne da studi opzionali e limitati nel tempo a uno strato di verifica costante e atteso, essenziale per gestire i rischi critici di una tecnologia sempre più potente.

La spinta del mercato e della regolamentazione

In assenza, per ora, di mandati governativi stringenti, la spinta verso l’adozione di audit indipendenti potrebbe arrivare dal mercato stesso. Brundage intravede diversi punti di pressione: i clienti aziendali, che richiederanno garanzie sulla sicurezza dei sistemi di IA che integrano nei loro processi, e le compagnie di assicurazione, che necessiteranno di standard di valutazione per poter assicurare i rischi legati all’IA. Questo creerebbe un incentivo economico per i laboratori di IA a sottoporsi a verifiche esterne.

Parallelamente, il quadro normativo si sta muovendo. Leggi come l’EU AI Act in Europa stanno già introducendo requisiti di valutazione della conformità e monitoraggio post-commercializzazione per i sistemi ad alto rischio. L’approccio di Averi si inserisce perfettamente in questo contesto, fornendo gli strumenti e gli standard necessari per soddisfare tali requisiti. L’audit indipendente, infatti, serve a verificare che le pratiche di un’azienda siano eque, sicure, legali e allineate con le policy dichiarate, coprendo aspetti come la qualità dei dati, il comportamento del modello, la sicurezza e la trasparenza.

Il background di Brundage e il futuro della sicurezza IA

La credibilità di questa iniziativa è fortemente legata alla figura di Miles Brundage. Durante i suoi anni in OpenAI, ha guidato i team di Policy Research e AGI Readiness, gestendo il programma di “expert red teaming” e valutando l’impatto sociale di diverse generazioni di tecnologie OpenAI. La sua decisione di lasciare l’azienda, come quella di altri ricercatori focalizzati sulla sicurezza, è stata interpretata come un segnale della crescente tensione tra la corsa allo sviluppo e le preoccupazioni per la sicurezza a lungo termine. Brundage stesso ha affermato di aver lasciato OpenAI per avere maggiore indipendenza e libertà nella sua ricerca, dichiarando che né OpenAI né altri laboratori sono pronti per l’avvento di un’intelligenza artificiale generale (AGI).

Con Averi, Brundage non intende solo criticare lo status quo, ma costruire una soluzione pratica. L’istituto si posiziona come un attore fondamentale per costruire quella “fiducia giustificata” di cui il settore ha disperatamente bisogno. Passare dalle promesse di sicurezza a prove verificabili è il passo decisivo per un futuro in cui l’intelligenza artificiale possa essere implementata con fiducia, a beneficio dell’intera società. La sfida è immensa, ma la direzione è tracciata: l’era dell’autovalutazione sta per finire.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *