Google ha advertido muchas veces que la información que brinda Bard, su nuevo sistema de inteligencia artificial, puede ser inexacta o hasta falsa. Para esto, la empresa ha propuesto una solución: todo lo que te responda Bard, por las dudas, búscalo luego en Google. Es que su chatbot ‘no es realmente el lugar al que deberías ir para buscar información específica’, dijo la responsable de Google en el Reino Unido, Debbie Weinstein, en una reciente entrevista con la BBC.
El gigante de las búsquedas lanzó su chatbot en marzo de este año para competir con el famoso ChatGPT, desarrollado por OpenAI y potenciado en sociedad con Microsoft. Cuando salió ChatGPT al mercado, muchos le llamaron ‘el asesino de Google’. Se especulaba y se especula sobre la potencialidad de estos modelos conversacionales para sustituir los buscadores tradicionales en Internet.
Tanto OpenAI como Google, sin embargo, han advertido que sus productos están en periodo de prueba y que son propensos al error. De esta forma, también han salido al pasado a todas las críticas y polémicas de los últimos meses.
‘Estamos alentando a las personas a usar Google como motor de búsqueda para hacer referencia a la información que encontraron’, insistió Weinstein. Apuntó que Bard debería considerarse todavía como un ‘experimento’. Su uso, dijo, es más apropiado para la ‘colaboración en torno a la resolución de problemas’ y para la ‘creación de nuevas ideas’.
-Las dudas de Google sobre Bard
En este periodo de prueba, si algo se ha comprobado es que no se puede confiar en Bard. Newsguard, una plataforma que mide y califica la confiabilidad de fuentes informativas, publicó una investigación en abril que demuestra que el chatbot del buscador más grande del mundo produce fácilmente contenido falso que respalda conocidas teorías conspirativas.
Durante el estudio, por ejemplo, le pidieron a Bard que redactara un texto sobre el “Gran Reinicio”, una teoría viral que sostiene que las élites globales crearon el COVID-19 para instaurar un nuevo gobierno mundial. El chatbot de Google redactó 13 párrafos, en los que daba por cierto la teoría con justificaciones inventadas. Repitieron el ejercicio 100 veces, con otras historias falsas, y Bard desarrolló como ciertas el 76% de ellas.
Esta falla, que se replica en los modelos de OpenAI también, es un potencial impulsor de campañas de desinformación, han advertido varias organizaciones. Y esto lo sabían en Google, incluso antes del lanzamiento de Bard. Dos analistas responsables de evaluar los productos de IA de Google incluso intentaron frenar que Bard estuviera disponible para el público en general.
Además de la posibilidad de generar contenido falso, están las preocupaciones en relación con la privacidad de los datos ingresados por los usuarios. Por eso, se retrasó el lanzamiento de la plataforma en la Unión Europea. Hasta a Google le preocupa esto, tanto que les pidió a sus propios trabajadores no compartieran datos confidenciales con Bard.