
L’appello di Giorgio Parisi: pluralità e controllo per un’IA democratica
Durante una conferenza all’Accademia dei Lincei, il premio Nobel per la fisica Giorgio Parisi ha espresso serie preoccupazioni riguardo al futuro dell’intelligenza artificiale (IA). Secondo Parisi, per evitare che l’IA diventi un monopolio del sapere, è fondamentale garantire la pluralità dei sistemi e un controllo rigoroso sulle fonti utilizzate per l’addestramento.
“L’ideale sarebbe non avere un singolo modello, ma tanti modelli che si confrontano l’uno con l’altro”, ha affermato Parisi, sottolineando come la diversità di approcci e di dati sia essenziale per evitare distorsioni e favorire un’IA più equa e trasparente.
Il rischio del monopolio e la necessità di un controllo sulle fonti
Parisi ha evidenziato come, allo stato attuale, sia difficile controllare quando un sistema di IA commette errori e quali siano le fonti utilizzate per l’addestramento. A differenza delle ricerche online, dove è possibile valutare diverse fonti e scegliere quelle più affidabili, con l’IA questo controllo viene meno.
“Se facciamo una ricerca su Google ci troviamo davanti a una quantità di siti diversi, fra i quali possiamo fare delle scelte”, ha spiegato Parisi, “ma quando utilizziamo un sistema di intelligenza artificiale non abbiamo più un controllo sulle fonti. Se poi venisse utilizzato un solo modello si rischierebbe un monopolio”.
Un centro di ricerca pubblico europeo sul modello del CERN
Per garantire la pluralità dei sistemi di IA e del loro addestramento, Parisi propone la creazione di un centro di ricerca pubblico europeo sul modello del CERN. Questo centro, finanziato da Stati membri e non membri dell’UE, avrebbe il compito di sviluppare e addestrare sistemi di IA alternativi, garantendo così una maggiore diversità e un controllo più efficace sulle fonti.
“È essenziale che in Europa nasca un centro di ricerca pubblico che si occupi dell’addestramento dei sistemi di IA come ChatGpt o DeepSeeK”, ha affermato Parisi, sottolineando come l’Europa non debba essere schiacciata tra Stati Uniti e Cina in questo settore.
Le lacune teoriche e le limitazioni degli attuali modelli di IA
Ripercorrendo la storia dell’IA, Parisi ha rilevato che le attuali ricerche sulle reti neurali profonde, pur essendo molto avanzate, non sono supportate da una teoria robusta. Questo rende difficile comprendere il funzionamento interno di questi sistemi e prevedere il loro comportamento.
Inoltre, i grandi modelli linguistici (Llm), pur essendo in grado di rispondere a domande e generare testi, non hanno una rappresentazione spaziale del mondo e non sono in grado di guidare un’auto autonoma. Questo dimostra come l’IA attuale sia ancora lontana dall’intelligenza umana e abbia bisogno di nuove teorie e approcci.
Verso una nuova teoria dell’IA: l’importanza dell’apprendimento umano
Parisi ha concluso sottolineando la necessità di una teoria diversa dell’IA, che tenga conto del modo in cui il cervello umano apprende e ragiona. A differenza dei modelli attuali, che si basano sull’apprendimento di grandi quantità di dati, il cervello umano è in grado di generalizzare e astrarre concetti a partire da esperienze limitate.
“Il cervello umano non funziona così: non impara i libri a memoria”, ha affermato Parisi, sottolineando come il futuro dell’IA dipenda dalla capacità di sviluppare modelli che imitino il modo in cui il cervello umano apprende e ragiona.
Un futuro dell’IA da costruire con responsabilità e visione
Le parole di Giorgio Parisi ci mettono di fronte a una riflessione cruciale sul futuro dell’intelligenza artificiale. La sua visione, che auspica un’IA pluralista, controllata e basata su solide fondamenta teoriche, è un faro che dovrebbe guidare le scelte politiche e scientifiche dei prossimi anni. L’Europa ha l’opportunità di giocare un ruolo chiave in questo scenario, investendo in ricerca e sviluppo e promuovendo un approccio all’IA che sia al servizio dell’umanità e non il contrario.