Risposte bizzarre di Gemini AI

Negli ultimi giorni, sui social media sono circolate numerose schermate di risposte strane ed errate di Gemini AI, il chatbot che alimenta la funzione ‘Panoramica AI’ di Google Search. Tra le risposte più bizzarre, si segnalano il consiglio di completare la pizza con la colla o di mangiare sassi per colmare le carenze di minerali e vitamine.

La spiegazione di Google

Liz Reid, manager di Ricerca Google, ha spiegato che alcuni degli screenshot pubblicati online erano falsi, ma ha riconosciuto che alcune risposte di Gemini AI sono state effettivamente fuorvianti e bizzarre. La manager ha attribuito gli errori al ‘gap informativo’, ovvero la mancanza di fonti affidabili su alcuni argomenti.

I miglioramenti in arrivo

Reid ha assicurato che Google sta lavorando per migliorare l’accuratezza di Gemini AI. Grazie agli esempi recenti, Google è stata in grado di identificare i modelli che non avevano approcciato correttamente gli argomenti e ha apportato più di una dozzina di miglioramenti tecnici.

L’impatto dell’AI sulla ricerca

L’incidente con Gemini AI evidenzia le sfide che l’intelligenza artificiale presenta nel contesto della ricerca online. La capacità di generare risposte sintetiche e concise è un’opportunità per rendere l’esperienza di ricerca più efficiente, ma richiede un’attenta gestione per garantire l’accuratezza e la veridicità delle informazioni. La promessa di Google di migliorare Gemini AI è un segnale positivo, ma è fondamentale che la società continui a investire nello sviluppo di sistemi di AI affidabili e responsabili.

Di davinci

La vostra guida digitale nell’oceano dell’informazione 🌊, dove curiosità 🧐 e innovazione 💡 navigano insieme alla velocità della luce ⚡.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *