Nel panorama culturale contemporaneo, poche discussioni sono tanto pervasive e polarizzanti quanto quella sull’intelligenza artificiale. In questo scenario, si inserisce con la forza di un manifesto critico il saggio “L’inganno dell’intelligenza artificiale. Come resistere a Big Tech e costruire il futuro che vogliamo“, firmato da due delle voci più autorevoli e influenti nel dibattito internazionale: la linguista computazionale Emily M. Bender e la sociologa Alex Hanna. Pubblicato in Italia da Fazi Editore, con uscita prevista per il 17 marzo, il volume si propone come una guida essenziale per decostruire la narrazione trionfalistica che avvolge le tecnologie di IA.
Le autrici, con un approccio lucido e accessibile, smontano pezzo per pezzo l’impalcatura mediatica eretta dalle grandi corporazioni tecnologiche. Lungi dall’essere una forma di intelligenza pensante e senziente, l’IA odierna, secondo Bender e Hanna, si sostanzia in complessi sistemi statistici su larga scala. Questi modelli, noti come Large Language Models (LLM) – di cui ChatGPT e Gemini sono gli esempi più celebri – non fanno altro che produrre linguaggio e immagini replicando schemi matematici estratti da immense quantità di dati, senza alcuna reale comprensione del significato.
I “Pappagalli Stocastici”: una metafora per comprendere i limiti dell’IA
È proprio di Emily M. Bender la celebre e potente metafora dei “pappagalli stocastici“, coniata per la prima volta in un influente articolo del 2021. Questa definizione, ripresa e approfondita nel libro, cattura l’essenza del funzionamento di questi sistemi: come un pappagallo che ripete parole umane senza afferrarne il senso, un LLM “cuce insieme sequenze di forme linguistiche […] secondo informazioni probabilistiche su come si combinano, ma senza alcun riferimento al significato”. Si tratta, quindi, di un’imitazione statistica, un’eco sofisticata ma vuota, che solleva interrogativi profondi sulla natura stessa dell’intelligenza e della creatività.
Questa prospettiva critica smantella alcuni dei miti più radicati nel tecno-ottimismo contemporaneo, come la presunta neutralità delle macchine e l’inevitabilità dell’automazione. Le autrici evidenziano come dietro la facciata dell’algoritmo imparziale si celino spesso pregiudizi e disuguaglianze ereditate dai dati di addestramento, che a loro volta riflettono i bias della nostra società. La ricerca di Alex Hanna, in particolare, si concentra su come le pratiche di raccolta dati possano esacerbare le disuguaglianze razziali, di genere e di classe.
Il lato oscuro dell’innovazione: costi nascosti e implicazioni etiche
“L’inganno dell’intelligenza artificiale” non si limita a un’analisi teorica, ma affonda lo sguardo nelle conseguenze concrete e spesso occultate dello sviluppo sfrenato dell’IA. Il saggio porta alla luce una serie di problematiche critiche:
- Raccolta di dati senza consenso: La fame insaziabile di dati di questi modelli porta a pratiche di scraping e utilizzo di informazioni personali e opere protette da copyright senza adeguato consenso, come dimostra la causa intentata dal New York Times contro OpenAI.
- Lavoro invisibile e sottopagato: Dietro l’automazione si nasconde un enorme indotto di lavoro umano, spesso precario e mal retribuito, necessario per etichettare dati, moderare contenuti e “pulire” gli output dei modelli.
- Impatto ambientale: L’addestramento e il mantenimento di questi giganteschi modelli richiedono una quantità esorbitante di energia e risorse idriche, con un costo ambientale crescente e raramente discusso. Come sottolinea Bender, le “nuvole” del cloud sono in realtà enormi data center con un impatto ecologico tutt’altro che leggero.
- Marketing dell’illusione: Le Big Tech, attraverso un marketing aggressivo, propongono queste tecnologie come soluzioni magiche a problemi complessi, vendendo illusioni come possibilità concrete e distogliendo l’attenzione da soluzioni più radicate e umane.
Le domande cruciali per il nostro futuro
Il saggio di Bender e Hanna non è un pamphlet contro la tecnologia, ma un invito a una riflessione collettiva e consapevole. Le domande che le autrici pongono sono quelle che dovrebbero essere al centro del dibattito pubblico, spesso messo a tacere dalla corsa all’innovazione:
- L’IA ci renderà più competenti o accentuerà la nostra dipendenza da sistemi che non comprendiamo?
- Contribuirà a creare una società più equa o amplificherà le disuguaglianze esistenti?
- Chi è responsabile quando un algoritmo sbaglia, causando danni in ambiti cruciali come la sanità, la giustizia, il lavoro o il giornalismo?
L’obiettivo è riportare la discussione sui binari essenziali dei diritti, della trasparenza e della responsabilità. Si tratta di scegliere quali tecnologie adottare e come implementarle, per costruire un futuro in cui l’innovazione sia realmente al servizio delle persone e non solo del profitto di pochi. Un appello, in fondo, a non delegare alle macchine le decisioni fondamentali che definiscono il nostro essere umani e la nostra società.
Le autrici: profili di due pensatrici critiche
Emily M. Bender è una figura di spicco nel campo della linguistica computazionale. La sua inclusione da parte della rivista ‘Time’ nella lista delle 100 persone più influenti nel campo dell’IA nel 2023 testimonia il suo impatto nel dibattito. Alex Hanna è una sociologa la cui ricerca si concentra sull’impatto sociale dell’IA. È Direttrice della Ricerca presso il Distributed AI Research Institute (DAIR), un’istituzione fondata da Timnit Gebru dopo il suo controverso allontanamento da Google, vicenda che ha messo in luce le tensioni tra ricerca etica e interessi aziendali all’interno di Big Tech. Insieme, Hanna e Bender conducono anche il podcast “Mystery AI Hype Theater 3000”, dove smontano con ironia e acume l’hype che circonda l’intelligenza artificiale.
Con “L’inganno dell’intelligenza artificiale”, Bender e Hanna offrono al pubblico italiano uno strumento fondamentale per navigare la complessità del presente, un saggio che è al tempo stesso un’analisi rigorosa e un appassionato invito all’azione per riappropriarsi del futuro della tecnologia.
