Mountain View, California – Un velo di polemiche avvolge nuovamente Google. Il colosso tecnologico è al centro di una grave accusa: aver violato i suoi stessi principi etici sull’intelligenza artificiale fornendo, nel corso del 2024, supporto tecnico a un appaltatore militare israeliano per migliorare l’analisi di immagini catturate da droni. A innescare la bufera è stata una denuncia confidenziale presentata alla Securities and Exchange Commission (SEC), l’ente federale statunitense preposto alla vigilanza della borsa valori, da parte di un ex dipendente dell’azienda. La notizia, rivelata dal Washington Post, getta un’ombra sulla coerenza tra le dichiarazioni pubbliche di Google e le sue operazioni commerciali, specialmente in contesti geopoliticamente sensibili.

I dettagli della denuncia: un ticket di supporto che scotta

Secondo i documenti allegati all’esposto, il cuore della vicenda risale al luglio 2024. In quel periodo, la divisione cloud di Google avrebbe ricevuto una richiesta di assistenza tecnica da un utente con un indirizzo email riconducibile alle Forze di Difesa Israeliane (IDF). Il nominativo associato alla richiesta corrisponderebbe a quello di un dipendente di CloudEx, una società tecnologica israeliana indicata nella denuncia come fornitrice dell’esercito.

L’oggetto della richiesta era estremamente specifico e tecnicamente delicato: ottenere aiuto per rendere il modello di intelligenza artificiale di Google, Gemini, più efficiente e affidabile. L’obiettivo era ottimizzare la capacità del software di identificare, all’interno di filmati aerei, oggetti di natura militare come droni, veicoli blindati e soldati. Stando alla denuncia, il personale di Google Cloud non si sarebbe limitato a una risposta standard, ma avrebbe fornito suggerimenti mirati ed effettuato test interni per risolvere le problematiche segnalate dal cliente.

Gemini e il “doppio standard”: quando l’etica vacilla

Al centro del dibattito c’è Gemini, l’avanzato modello di intelligenza artificiale multimodale di Google, capace di processare e comprendere informazioni complesse che spaziano da testi a immagini e audio. Le sue potenzialità nell’analisi video sono immense, ed è proprio qui che si annida il conflitto etico. L’ex dipendente che ha presentato la denuncia sostiene che l’assistenza fornita a CloudEx rappresenti una palese violazione dei “Principi sull’IA” che Google si è autoimposta nel 2018. Questi principi, nati dopo le proteste interne per il “Progetto Maven” con il Pentagono, escludono esplicitamente l’uso delle tecnologie di intelligenza artificiale di Google in sistemi d’arma o per attività di sorveglianza che violino “norme internazionalmente accettate”.

Il whistleblower parla di un “doppio standard” nell’applicazione di queste regole. Mentre molti progetti interni a Google vengono sottoposti a un rigoroso processo di revisione etica, nel caso specifico del supporto legato a Israele, questo controllo sarebbe venuto meno. La denuncia suggerisce che, fornendo tale supporto, Google avrebbe fuorviato gli investitori sulla reale aderenza ai propri principi etici, principi che sono citati anche nei documenti federali dell’azienda.

Il contesto: il Progetto Nimbus e le proteste interne

Questa vicenda non nasce dal nulla, ma si inserisce in un contesto di forte tensione interna a Google riguardo ai suoi rapporti con il governo e l’esercito israeliano. Il pomo della discordia è il Progetto Nimbus, un contratto da 1,2 miliardi di dollari, condiviso con Amazon, per fornire servizi di cloud computing e intelligenza artificiale a varie branche del governo israeliano, incluso l’apparato militare.

Fin dal suo annuncio nel 2021, il progetto ha scatenato l’opposizione di un nutrito gruppo di dipendenti, organizzati nel collettivo “No Tech for Apartheid”. Questi lavoratori temono che la tecnologia fornita possa essere impiegata per rafforzare la sorveglianza sui palestinesi e contribuire ad attività militari. Le proteste si sono intensificate nel tempo, culminando in sit-in negli uffici di New York e Sunnyvale, che hanno portato al licenziamento di oltre 50 dipendenti.

Nonostante le rassicurazioni pubbliche di Google, secondo cui il contratto Nimbus “non è diretto a carichi di lavoro altamente sensibili, classificati o militari relativi ad armi o servizi di intelligence”, i documenti interni e le recenti accuse sembrano raccontare una storia diversa, o quantomeno più complessa.

La difesa di Google e le prospettive future

La replica di Google alle accuse è stata netta. Un portavoce ha negato qualsiasi violazione dei principi etici, definendo l’accaduto come una normale interazione di supporto clienti. “Qualsiasi affermazione secondo cui abbiamo violato i nostri Principi sull’IA è errata”, ha dichiarato il portavoce, aggiungendo che si è trattato di una risposta a una “domanda di uso generale” per un prodotto disponibile a qualsiasi cliente. Secondo l’azienda, l’utilizzo dei servizi Gemini da parte del richiedente era troppo limitato per essere considerato “significativo”.

Tuttavia, la denuncia è ora sul tavolo della SEC, che potrebbe decidere di avviare un’indagine formale. Al di là degli esiti legali, questa vicenda riaccende potentemente il dibattito sul ruolo delle Big Tech nell’industria della difesa e sulla responsabilità etica che deriva dal creare tecnologie così potenti. Il confine tra un “normale servizio cloud” e un supporto a operazioni militari diventa sempre più labile, ponendo interrogativi cruciali sul futuro della guerra, della sorveglianza e sul delicato equilibrio tra innovazione tecnologica e diritti umani.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *