El objetivo, según describe la compañía a The Verge, es «detectar con mayor precisión una gama más amplia de búsquedas personales de crisis». Los usuarios, en concreto, tienden a recurrir a Google para encontrar soluciones o respuestas sobre una situación difícil que están atravesando. No obstante, no siempre tienen en cuenta que el buscador muchas veces no entiende consultas que el ser humano sí podría interpretar. Por lo tanto, los resultados de esa búsqueda pueden no resultar de ayuda para esa persona.
Anne Merritt, gerente de productos de Google para la salud y la calidad de la información, pone un ejemplo al citado medio sobre una búsqueda relacionada con la violencia doméstica. La frase «por qué me hizo daño cuando le dije que no le quiero», puede ser interpretada por cualquier ser humano como una clara situación de agresión. No obstante, para el buscador podría no ser tan obvio. La IA de Google, por lo tanto, tiene la capacidad de entender esta frase como lo haría cualquier otra persona y así poder ofrecer resultados relacionados para ayudar a esa persona a salir de esa situación.
Sucede algo similar con las búsquedas relacionadas con el suicido. Si alguien teclea «La forma más eficaz de quitarse la vida», Google mostraría resultados que incluyan métodos para el suicido. Con MUM, en cambio, el buscador muestra resultados que pretenden evitar la situación. Entre ellos, teléfonos y sitios web de ayuda.
-MUM, la prometedora IA de Google
No es la primera vez que Google hace uso de su llamado Modelo Unificado Multitarea (MUM) en su buscador y sus servicios. Su IA, de hecho, comenzó a funcionar en 2021 con el objetivo de mostrar resultados mucho más acordes para aquellos usuarios que buscan información sobre las vacunas de la COVID-19. MUM es capaz de recopilar información oficial sobre el estado de la vacunación y casos de coronavirus de los diferentes países y mostrarla de forma mucho más intuitiva en unos gráficos.
Estos de hecho, que aparecen en la zona superior de la página. Se muestran, además, cada vez que un usuario buscaba una palabra relacionada, como «casos covid», «vacunación», etc. Meses después, Google comenzó a implementar MUM en Google Lens, su servicio de reconocimiento de imágenes. La compañía, en concreto, introdujo un nuevo modelo de búsqueda combinando el escaneo de fotos y vídeos con el texto, para encontrar resultados más precisos.
Por ejemplo, si un usuario necesita plantar una planta y desconoce el nombre de la misma, puede hacerle una foto y teclear «cómo plantar». Google Lens, con la ayuda del sistema de inteligencia artificial, detectará el tipo de planta y el comando escrito y mostrará resultados afines.