Risposte bizzarre di Gemini AI
Negli ultimi giorni, sui social media sono circolate numerose schermate di risposte strane ed errate di Gemini AI, il chatbot che alimenta la funzione ‘Panoramica AI’ di Google Search. Tra le risposte più bizzarre, si segnalano il consiglio di completare la pizza con la colla o di mangiare sassi per colmare le carenze di minerali e vitamine.
La spiegazione di Google
Liz Reid, manager di Ricerca Google, ha spiegato che alcuni degli screenshot pubblicati online erano falsi, ma ha riconosciuto che alcune risposte di Gemini AI sono state effettivamente fuorvianti e bizzarre. La manager ha attribuito gli errori al ‘gap informativo’, ovvero la mancanza di fonti affidabili su alcuni argomenti.
I miglioramenti in arrivo
Reid ha assicurato che Google sta lavorando per migliorare l’accuratezza di Gemini AI. Grazie agli esempi recenti, Google è stata in grado di identificare i modelli che non avevano approcciato correttamente gli argomenti e ha apportato più di una dozzina di miglioramenti tecnici.
L’impatto dell’AI sulla ricerca
L’incidente con Gemini AI evidenzia le sfide che l’intelligenza artificiale presenta nel contesto della ricerca online. La capacità di generare risposte sintetiche e concise è un’opportunità per rendere l’esperienza di ricerca più efficiente, ma richiede un’attenta gestione per garantire l’accuratezza e la veridicità delle informazioni. La promessa di Google di migliorare Gemini AI è un segnale positivo, ma è fondamentale che la società continui a investire nello sviluppo di sistemi di AI affidabili e responsabili.