MUM, la fórmula con la cual el buscador de Google se volvió más inteligente
Se trata de un modelo de IA multimodal, es decir que puede comprender información de diferentes formatos como páginas web o imágenes en simultáneo. Cómo facilita el acceso a la información y la interacción
MUM es 1.000 veces más poderoso que BERT y puede realizar múltiples tareas para desbloquear información de nuevas formas, aseguró Prabhakar Raghavan, vicepresidente senior de Google, en el marco del evento para desarrolladores Google I/O 2021.
Este sistema no solo comprende, sino que también genera lenguaje. Está capacitado en 75 idiomas y es capaz de realizar muchas tareas diferentes a la vez, lo cual le brinda una comprensión más completa de la información y el conocimiento del mundo que los modelos anteriores. Además, al ser multimodal, comprende la información en texto e imágenes y, en el futuro, puede expandirse a más modalidades como video y audio.
“Imagine una consulta compleja y conversacional, como ´He subido a la montaña Adams y ahora quiero caminar por el el Fuji el próximo otoño, ¿qué debería hacer diferente para prepararme?´ Esto dejaría perplejos a los motores de búsqueda de hoy, pero en el futuro, MUM podría entender esta complicada pregunta y generar una respuesta bien organizada, apuntando a resultados altamente relevantes. Hemos iniciado pruebas piloto internas con MUM y estamos entusiasmados con su potencial para mejorar los productos de Google”, se destacó en el comunicado oficial publicado por la compañía.
En el futuro, MUM podría entender que se están comparando dos montañas, por lo que la información de elevación y sendero puede ser relevante. También podría entender que, en el contexto de las caminatas, “prepararse” podría incluir cosas como entrenamiento físico, así como encontrar el equipo adecuado. Debido a que puede identificar y comprender estos matices, MUM tiene el potencial de mostrar información más relevante para preguntas como estas.
Otro aspecto que hace que MUM sea único es su capacidad para generar conocimientos basados en su profundo conocimiento del mundo. Por ejemplo, el sistema podría generar una respuesta destacando que es posible que el usuario necesite diferente indumentaria según la época del año en la cual quiera escalar cada una de las montañas.
El idioma puede ser una barrera importante para acceder a la información pero esta tecnología tiene el potencial de romper estos límites mediante la transferencia de conocimientos entre idiomas. Esto significa que puede aprender de fuentes que no estén escritas en el idioma en el que escribió su búsqueda, procesar todos esos datos y ser capaz de brindarle al usuario esa información.
A su vez, al ser multimodal, MUM puede comprender información de diferentes formatos como páginas web, imágenes y más, en simultáneo. Con el tiempo, es posible que el usuario pueda tomar una foto de sus botas de montaña y preguntar: “¿Puedo usarlas para caminar por un sendero montañoso?”. Esta inteligencia artificial entendería la imagen y la relacionaría con la pregunta para luego contestar si ese calzado es óptimo o no para lo que se desea y en caso de que no sea así, incluir un listado de sugerencias.
La compañía destacó que todavía se está explorando y probando el sistema y que pasará un tiempo hasta que se incorpore al buscador. “Así como probamos cuidadosamente las muchas aplicaciones de BERT lanzadas desde 2019, MUM se someterá a este proceso a medida que apliquemos estos modelos en la Búsqueda en los próximos meses y años. Específicamente, buscaremos patrones que puedan indicar sesgos en el aprendizaje automático para evitar introducir sesgos en nuestros sistemas”, se subrayó en el comunicado difundido.