Nel dinamico e talvolta tumultuoso universo dell’intelligenza artificiale, una recente scoperta ha innescato un acceso dibattito sulla credibilità e l’affidabilità dei modelli linguistici di grandi dimensioni (LLM) che sempre più pervadono il nostro quotidiano. Un’inchiesta del quotidiano The Guardian ha svelato che ChatGPT, il fiore all’occhiello di OpenAI, ha attinto informazioni da Grokipedia, l’enciclopedia online interamente generata dall’IA di xAI, l’azienda fondata da Elon Musk. Questa simbiosi inattesa tra due giganti rivali del settore non solo evidenzia la complessità degli algoritmi di ricerca sul web, ma solleva anche seri interrogativi sul rischio di creare camere dell’eco informative e sulla potenziale amplificazione di contenuti distorti o errati.

L’Indagine: Quando le IA si citano a vicenda

Secondo quanto riportato, il modello più recente di OpenAI, GPT-5.2, avrebbe citato Grokipedia come fonte in almeno nove occasioni rispondendo a una dozzina di domande su argomenti di nicchia o meno noti. Tra gli esempi emersi vi sono quesiti riguardanti i legami tra il governo iraniano e la società di telecomunicazioni MTN-Irancell e dettagli sulla biografia dello storico britannico Sir Richard Evans, noto per essere stato testimone chiave nel processo per diffamazione contro il negazionista dell’Olocausto David Irving. È interessante notare come l’utilizzo di Grokipedia sia avvenuto su temi specifici e non su argomenti di attualità ampiamente dibattuti, suggerendo che l’algoritmo ricorra a tale fonte in assenza di un vasto corpus di informazioni da fonti più tradizionali.

Il fenomeno non sembra essere isolato. L’indagine ha riscontrato un comportamento simile anche in Claude, il chatbot sviluppato da Anthropic, che avrebbe fatto riferimento all’enciclopedia di Musk per rispondere a domande su argomenti disparati, dalla produzione di petrolio alle birre scozzesi. Questo indica una tendenza più ampia e sistemica nel modo in cui gli attuali LLM esplorano e indicizzano il web alla ricerca di informazioni.

Grokipedia: L’Alternativa Controversa a Wikipedia

Lanciata nell’ottobre dello scorso anno, Grokipedia è stata presentata da Elon Musk come un’alternativa a Wikipedia, da lui spesso criticata per una presunta parzialità “woke” ed eccessiva vicinanza ai media tradizionali. A differenza dell’enciclopedia collaborativa basata sul contributo di volontari umani, Grokipedia è quasi interamente generata dal modello IA Grok, con la promessa, almeno in teoria, di eliminare i pregiudizi umani. Questo approccio ha permesso una crescita esponenziale dei contenuti, con oltre 6 milioni di articoli creati in pochi mesi.

Tuttavia, fin dal suo debutto, Grokipedia è stata oggetto di aspre critiche. Ricercatori e analisti hanno evidenziato come la piattaforma tenda a promuovere narrazioni di destra e a dare spazio a teorie del complotto e disinformazione su temi sensibili come il cambiamento climatico, i vaccini e l’intelligenza razziale. Un’analisi della Cornell University aveva già segnalato la presenza di citazioni da fonti di “bassa credibilità”, incluso il sito web neonazista Stormfront. Inoltre, è stato osservato che molti articoli sono semplici copie o parafrasi di voci di Wikipedia, mentre altri presentano una prospettiva che riflette le opinioni personali di Musk.

Le Reazioni delle Aziende Coinvolte

Di fronte a queste rivelazioni, OpenAI ha rilasciato una dichiarazione in cui afferma che il suo modello GPT-5.2 “mira ad attingere da un’ampia gamma di fonti e punti di vista pubblicamente disponibili”. L’azienda ha inoltre sottolineato di applicare “filtri di sicurezza per ridurre il rischio di far emergere link associati a contenuti di severità critica” e che ChatGPT indica chiaramente le fonti utilizzate. Anthropic, dal canto suo, non ha rilasciato commenti immediati sulla questione.

La risposta di xAI, l’azienda dietro Grokipedia, è stata lapidaria e in linea con lo stile comunicativo del suo fondatore: “I media tradizionali mentono”. Questa replica, pur non negando l’accaduto, sposta l’attenzione su un piano ideologico, contrapponendo la presunta “verità” generata dall’IA alla narrazione dei media convenzionali.

Il Rischio dell’Eco Chamber e del “Model Collapse”

Dal punto di vista tecnico, il fatto che un’IA attinga da contenuti generati da un’altra IA solleva una preoccupazione fondamentale, nota nel campo come “Ouroboros effect” o rischio di “model collapse“. Questo fenomeno descrive un processo degenerativo in cui i modelli, addestrandosi su dati sintetici prodotti da altri modelli, iniziano a perdere contatto con la realtà fattuale basata su dati umani, amplificando errori e pregiudizi in un circolo vizioso. Se le IA iniziano a trattarsi a vicenda come fonti primarie, il rischio è quello di creare un ecosistema informativo chiuso e autoreferenziale, in cui la disinformazione può essere non solo propagata, ma anche legittimata.

La questione è particolarmente delicata quando riguarda argomenti di nicchia, dove la verifica da parte dell’utente medio è più difficile. In questi “vuoti informativi”, un’enciclopedia generata da IA come Grokipedia, capace di produrre rapidamente un’enorme quantità di contenuti, può facilmente posizionarsi come fonte autorevole agli occhi degli algoritmi di ricerca, che privilegiano risposte strutturate e dirette.

Un Futuro di Sfide per la Verifica delle Fonti

L’episodio rappresenta un campanello d’allarme per l’intero settore tecnologico e per la società. Evidenzia la necessità di sviluppare meccanismi di verifica e di “fact-checking” sempre più sofisticati, capaci di distinguere non solo tra vero e falso, ma anche tra contenuti di origine umana e sintetica. La trasparenza degli algoritmi e la capacità dei modelli di valutare criticamente la credibilità delle proprie fonti diventano elementi non più accessori, ma fondamentali per garantire un accesso all’informazione che sia plurale, corretto e affidabile.

Mentre la competizione tra OpenAI e xAI continua su piani tecnologici e legali, questa inaspettata “collaborazione” tra i loro prodotti ci costringe a riflettere sulla natura stessa della conoscenza nell’era digitale. La sfida non è solo tecnologica, ma anche culturale: educare gli utenti a un approccio critico verso le informazioni fornite dalle IA, promuovendo uno stile di vita digitale consapevole che non rinunci all’innovazione, ma che ne riconosca i limiti e le potenziali insidie.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *