L’IA ‘allucina’: i limiti dei Large Language Model
L’Intelligenza Artificiale alla base dei grandi modelli linguistici, i cosiddetti Large Language Model come ChatGpt, è scollegata dalla realtà, e dunque non comprende davvero il mondo nel quale viviamo. Ciò significa che può facilmente commettere errori grossolani, quelli che vengono chiamati ‘allucinazioni’. Lo sottolinea Roberto Navigli, professore dell’Università Sapienza di Roma che si occupa di elaborazione del linguaggio.
Il ricercatore è intervenuto al convegno sull’impatto dell’IA sull’industria degli audiovisivi e della fotografia, organizzato a Roma dall’ANSA in collaborazione con Deloitte Italia. L’evento è stato realizzato insieme ad Anica (Associazione Nazionale Industrie Cinematografiche, Audiovisive e Digitali), e Airf (Associazione Italiana Reporters Fotografi).
“I modelli linguistici non ragionano come gli esseri umani, questo è il tema più importante”, dice Navigli. “Un altro tema fondamentale è quello dei dati: “Gli Llm hanno bisogno di leggere migliaia di miliardi di parole: per fare un confronto, un buon lettore può leggere circa 200mila parole a settimana – afferma il ricercatore – quindi meno di un miliardo in un tutta la vita. Gli Llm, inoltre, parlano di cose che non hanno mai visto e vissuto: noi, invece, dobbiamo collegare il linguaggio alla nostra esperienza.”
Diritto d’autore, sostenibilità e sicurezza: le sfide dell’IA
Gli altri punti chiave sottolineati riguardano la tutela del diritto d’autore, la sostenibilità e la sicurezza, cioè la capacità di questi modelli di generare testi o immagini indesiderabili. “Noi veniamo da un’IA che sa svolgere un solo compito, mentre stiamo andando verso un’IA che sa svolgere tanti compiti – aggiunge Navigli – Siamo ancora a metà strada di questo percorso.”
Un futuro di sfide e opportunità
Le parole del professor Navigli aprono un dibattito cruciale sul futuro dell’intelligenza artificiale. Se da un lato l’evoluzione dei Large Language Model offre prospettive entusiasmanti in diversi settori, dall’altro è fondamentale affrontare con attenzione i limiti e le potenziali criticità. La ricerca di un’IA che sappia realmente ‘capire’ il mondo, e non solo ‘imitare’ il linguaggio umano, è una sfida complessa ma indispensabile per garantire un utilizzo responsabile e sostenibile di queste tecnologie.