Meta está poniendo su último chatbot de IA en la web para que el público hable con él

Los laboratorios de investigación de IA de Meta han creado un nuevo chatbot de última generación y están permitiendo que los miembros del público hablen con el sistema para recopilar comentarios sobre sus capacidades.

El bot se llama BlenderBot 3 y se puede acceder a él en la web. (Aunque, en este momento, parece que solo los residentes en los EE. UU, pueden hacerlo). BlenderBot 3 puede participar en charlas generales, dice Meta, pero también responde el tipo de consultas que podría hacerle a un asistente digital, «desde hablar sobre salud saludable», recetas de comida para encontrar servicios amigables para los niños en la ciudad”.

El bot es un prototipo y se basó en el trabajo anterior de Meta con lo que se conoce como modelos de lenguaje grande o LLMS, un software de generación de texto poderoso pero defectuoso del cual GPT-3 de OpenAI es el ejemplo más conocido. Como todos los LLM, BlenderBot se entrena inicialmente en grandes conjuntos de datos de texto, que extrae en busca de patrones estadísticos para generar lenguaje.

Dichos sistemas han demostrado ser extremadamente flexibles y se les ha dado una variedad de usos, desde generar código para programadores hasta ayudar a los autores a escribir su próximo éxito de ventas. Sin embargo, estos modelos también tienen fallas graves: regurgitan sesgos en sus datos de entrenamiento y, a menudo, inventan respuestas a las preguntas de los usuarios, (un gran problema si van a ser útiles como asistentes digitales).

Este último problema es algo que Meta quiere probar específicamente con BlenderBot. Una gran característica del chatbot es que es capaz de buscar en Internet para hablar sobre temas específicos. Aún más importante, los usuarios pueden hacer clic en sus respuestas para ver de dónde obtuvo su información. BlenderBot 3, en otras palabras, puede citar sus fuentes.

Al lanzar el chatbot al público en general, Meta quiere recopilar comentarios sobre los diversos problemas que enfrentan los grandes modelos de lenguaje. Los usuarios que chatean con BlenderBot podrán marcar cualquier respuesta sospechosa del sistema, y ​​Meta dice que ha trabajado duro para «minimizar el uso de lenguaje vulgar, calumnias y comentarios culturalmente insensibles por parte de los bots». Los usuarios tendrán que optar por que se recopilen sus datos y, de ser así, sus conversaciones y comentarios se almacenarán y luego serán publicados por Meta para que los utilice la comunidad general de investigación de IA.

“Nos comprometemos a publicar todos los datos que recopilamos en la demostración con la esperanza de que podamos mejorar la IA conversacional”, dijo el ingeniero de investigación en Meta que ayudó a crear BlenderBot 3.

Históricamente, lanzar prototipos de chatbots de IA al público ha sido un movimiento arriesgado para las empresas de tecnología. En 2016, Microsoft lanzó un chatbot llamado Tay en Twitter que aprendió de sus interacciones con el público. Como era de esperar, los usuarios de Twitter pronto entrenaron a Tay para que regurgitara una variedad de declaraciones racistas, antisemitas y misóginas. En respuesta, Microsoft desconectó el bot menos de 24 horas después.

Meta dice que el mundo de la IA ha cambiado mucho desde el mal funcionamiento de Tay y que BlenderBot tiene todo tipo de rieles de seguridad que deberían evitar que Meta repita los errores de Microsoft.

Crucialmente, dice Mary Williamson, gerente de ingeniería de investigación en Facebook AI Research (FAIR), mientras que Tay fue diseñado para aprender en tiempo real de las interacciones del usuario, BlenderBot es un modelo estático. Eso significa que es capaz de recordar lo que dicen los usuarios dentro de una conversación (e incluso retendrá esta información a través de las cookies del navegador si un usuario sale del programa y regresa más tarde), pero esta información solo se usará para mejorar el sistema más adelante.

«Es solo mi opinión personal, pero ese episodio [de Tay] es relativamente desafortunado, porque creó este invierno de chatbots en el que todas las instituciones tenían miedo de sacar chatbots públicos para la investigación», dice Williamson

Williamson dice que la mayoría de los chatbots que se usan hoy en día son limitados y están orientados a tareas. Piense en los bots de servicio al cliente, por ejemplo, que a menudo solo presentan a los usuarios un árbol de diálogo preprogramado, reduciendo su consulta antes de pasarla a un agente humano que realmente puede hacer el trabajo.

El verdadero premio es construir un sistema que pueda llevar a cabo una conversación tan libre y natural como la de un humano, y Meta dice que la única manera de lograr esto es permitir que los bots tengan conversaciones libres y naturales.

“Esta falta de tolerancia hacia los bots que dicen cosas inútiles, en el sentido amplio de la palabra, es desafortunada”, dice Williamson. “Y lo que estamos tratando de hacer es publicar esto de manera muy responsable e impulsar la investigación”.