¿ Que es Google MUM ?
CATEGORIA: Marketing

¿ Que es Google MUM ?

Publicado el: 2021-10-11 16:37:00 | 

Compártelo en

Criptomonedas al día:

Recomendado:

Se pueden encontrar pistas sobre lo que es Google MUM en los recientes trabajos de investigación de inteligencia artificial publicados por investigadores de Google.

Google Multitask Unified Model (MUM) es una nueva tecnología para responder preguntas complejas que no tienen respuestas directas. Google ha publicado trabajos de investigación que pueden ofrecer pistas sobre qué es MUM AI y cómo funciona.

MUM probablemente se compone de múltiples innovaciones. Por ejemplo, el artículo de investigación de Google, HyperGrid Transformers: Towards A Single Model for Multiple Tasks describe un nuevo estado del arte en el aprendizaje de tareas múltiples que podría ser parte de MUM.

Si bien este artículo se centra en dos documentos que son particularmente interesantes, eso no significa que estas sean las únicas dos tecnologías que pueden ser la base del Modelo Unificado Multitarea (MUM) de Google.

Algoritmos de Google descritos en documentos de investigación y patentes

Google generalmente no confirma si los algoritmos descritos en documentos de investigación o patentes están en uso o no.

Google no ha confirmado qué es la tecnología Multitask Unified Model (MUM).

Documentos de investigación del modelo unificado multitarea

A veces, como fue el caso de Neural Matching , no existen trabajos de investigación o patentes que utilicen explícitamente el nombre de la tecnología. Es como si Google hubiera inventado una marca descriptiva para un grupo de algoritmos que trabajan juntos.

Este es un poco el caso con el modelo unificado multitarea (MUM). No hay patentes ni trabajos de investigación con la marca MUM exactamente. Pero…

Hay trabajos de investigación que analizan problemas similares que MUM resuelve utilizando soluciones multitarea y modelo unificado.


¿Qué es Google MUM?

Google MUM es un grupo de tecnologías que trabajan juntas para resolver consultas de búsqueda difíciles que no se pueden responder con un fragmento breve o los diez enlaces azules tradicionales.

MUM tiene como objetivo resolver estas consultas difíciles mediante el uso de múltiples formas de contenido, incluidas imágenes y contenido de texto en varios idiomas para proporcionar una respuesta rica y matizada.

Antecedentes del problema que MUM resuelve

La respuesta a preguntas de formato largo es una consulta de búsqueda compleja que no se puede responder con un enlace o un fragmento. La respuesta requiere párrafos de información que contengan múltiples subtemas.

El anuncio MUM de Google describió la complejidad de ciertas preguntas con un ejemplo de un buscador que deseaba saber cómo prepararse para escalar el Monte Fuji en otoño.

Este es el ejemplo de Google de una consulta de búsqueda compleja:

“Hoy, Google podría ayudarlo con esto, pero se necesitarían muchas búsquedas bien pensadas: tendría que buscar la elevación de cada montaña, la temperatura promedio en el otoño, la dificultad de las rutas de senderismo, el equipo adecuado para usar. , y más.»

Aquí hay un ejemplo de una pregunta de formato largo:

“¿Cuáles son las diferencias entre cuerpos de agua como lagos, ríos y océanos?”

La pregunta anterior requiere varios párrafos para discutir las cualidades de los lagos, ríos y mares, además de una comparación entre cada cuerpo de agua entre sí.

He aquí un ejemplo de la complejidad de la respuesta:

  • Un lago generalmente se conoce como agua quieta porque no fluye.
  • Un río está fluyendo.
  • Tanto un lago como un río son generalmente de agua dulce.
  • Pero un río y un lago a veces pueden ser salobres (salados).
  • Un océano puede tener millas de profundidad.

Responder una pregunta de formato largo requiere una respuesta compleja que consta de varios pasos, como el ejemplo que compartió Google sobre cómo prepararse para escalar el Monte Fuji en el otoño.

El anuncio de MUM de Google no mencionó la respuesta a preguntas de formato largo, pero el problema que MUM resuelve parece ser exactamente ese.

Cambio en cómo se responden las preguntas

En mayo de 2021, un investigador de Google llamado Donald Metzler publicó un artículo que presentaba el caso de que la forma en que los motores de búsqueda responden preguntas debe tomar una nueva dirección para dar respuestas a preguntas complejas.

El documento afirmó que el método actual de recuperación de información que consiste en indexar páginas web y clasificarlas es inadecuado para responder consultas de búsqueda complejas.

Un diletante es alguien que tiene un conocimiento superficial de algo, como un aficionado y no un experto.

El documento posiciona el estado actual de los motores de búsqueda de la siguiente manera:

“Los sistemas de vanguardia actuales a menudo se basan en una combinación de recuperación basada en términos… y semántica… para generar un conjunto inicial de candidatos.

Este conjunto de candidatos generalmente pasa a una o más etapas de reclasificación de modelos, que muy probablemente sean modelos de aprendizaje para clasificar basados ​​en redes neuronales.

Como se mencionó anteriormente, el paradigma indexar-recuperar-luego-clasificar ha resistido la prueba del tiempo y no sorprende que el aprendizaje automático avanzado y los enfoques basados ​​en NLP sean una parte integral de los componentes de indexación, recuperación y clasificación de los sistemas modernos. .”


Recuperación de información basada en modelos

El nuevo sistema que describe el trabajo de investigación Making Experts out of Dilettantes elimina la parte del algoritmo de recuperación de índices.

Esta sección del trabajo de investigación hace referencia a IR, que significa Recuperación de información , que es lo que hacen los motores de búsqueda.

Así es como el documento describe esta nueva dirección para los motores de búsqueda:

“El enfoque, denominado recuperación de información basada en modelos, pretende reemplazar el paradigma de larga duración de “recuperar y luego clasificar” mediante el colapso de los componentes de indexación, recuperación y clasificación de los sistemas IR tradicionales en un solo modelo unificado”.

A continuación, el artículo entra en detalles sobre cómo funciona el “ modelo unificado ”.

Detengámonos aquí para recordar que el nombre del nuevo algoritmo de Google es Modelo Unificado Multitarea

Omitiré la descripción del modelo unificado por ahora y solo notaré esto:

“La distinción importante entre los sistemas actuales y el sistema previsto es el hecho de que un modelo unificado reemplaza los componentes de indexación, recuperación y clasificación. En esencia, se lo denomina basado en modelos porque no hay nada más que un modelo”.

Captura de pantalla que muestra qué es un modelo unificado

En otro lugar, el trabajo de investigación de Dilettantes afirma:

“Para lograr esto, se propone un llamado marco de recuperación de información basado en modelos que rompe con el paradigma tradicional de recuperación de índices y luego clasificación al codificar el conocimiento contenido en un corpus en un modelo unificado que reemplaza la indexación, recuperación y clasificación de los componentes de los sistemas tradicionales”.

¿Es una coincidencia que la tecnología de Google para responder preguntas complejas se denomine Modelo unificado multitarea y que el sistema analizado en este documento de mayo de 2021 argumente la necesidad de un » modelo unificado » para responder preguntas complejas?

¿Qué es el trabajo de investigación de MUM?

El artículo de investigación “ Repensar la búsqueda: convertir a los diletantes en expertos ” incluye a Donald Metzler como autor. Anuncia la necesidad de un algoritmo que cumpla la tarea de responder preguntas complejas y sugiere un modelo unificado para lograrlo.

Da una visión general del proceso, pero es un poco corto en detalles y experimentos.

Hay otro artículo de investigación publicado en diciembre de 2020 que describe un algoritmo que tiene experimentos y detalles y uno de los autores es… Donald Metzler .

El nombre del trabajo de investigación de diciembre de 2020 es Mezcla multitarea de expertos secuenciales para flujos de actividad de usuario.

Detengámonos aquí, retrocedamos y reiteremos el nombre del nuevo algoritmo de Google: Modelo Unificado Multitarea

El documento Rethinking Search: Making Experts out of Dilettantes de mayo de 2021 describió la necesidad de un modelo unificado . El artículo de investigación anterior de diciembre de 2020 (del mismo autor) se llama Multitask Mixture of Sequential Experts for User Activity Streams

¿Son estas coincidencias? Tal vez no. Las similitudes entre MUM y este otro trabajo de investigación son asombrosamente similares.

MoSE: mezcla multitarea de expertos secuenciales para flujos de actividad de usuario

TL;DR
MoSE es una tecnología de inteligencia artificial que aprende de múltiples fuentes de datos (registros de búsqueda y navegación) para predecir patrones de búsqueda complejos de varios pasos. Es altamente eficiente, lo que lo hace escalable y poderoso.

Esas características de MoSE coinciden con ciertas cualidades del algoritmo MUM, específicamente que MUM puede responder consultas de búsqueda complejas y es 1000 veces más potente que tecnologías como BERT.


Qué hace MoSE

TL;DR
MoSE aprende del orden secuencial de los clics del usuario y los datos de navegación. Esta información le permite modelar el proceso de consultas de búsqueda complejas para producir respuestas satisfactorias.

El documento de investigación MoSE de diciembre de 2020 de Google describe el modelado del comportamiento del usuario en orden secuencial, en lugar de modelar la consulta de búsqueda y el contexto.

Modelar el comportamiento del usuario en orden secuencial es como estudiar cómo un usuario buscó esto, luego esto, luego aquello para comprender cómo responder a una consulta compleja.

El diario lo describe así:

“En este trabajo, estudiamos el desafiante problema de cómo modelar el comportamiento secuencial del usuario en la configuración de aprendizaje neuronal multitarea.

Nuestra principal contribución es un marco novedoso, Mixture of Sequential Experts (MoSE). Modela explícitamente el comportamiento secuencial del usuario utilizando la memoria a corto plazo (LSTM) en el marco de modelado multitarea de mezcla de expertos de múltiples puertas de última generación”.

Esa última parte sobre el » marco de modelado multitarea de mezcla de múltiples puertas de expertos » es un bocado.

Es una referencia a un tipo de algoritmo que se optimiza para múltiples tareas/objetivos y eso es prácticamente todo lo que se necesita saber al respecto por ahora. ( Cita: Modelado de relaciones de tareas en el aprendizaje de tareas múltiples con mezcla de expertos de múltiples puertas )

El trabajo de investigación de MoSE analiza otros algoritmos multitarea similares que están optimizados para múltiples objetivos, como predecir simultáneamente qué video un usuario podría querer ver en YouTube, qué videos perpetuarán una mayor participación y qué videos generarán más satisfacción del usuario. Son tres tareas/objetivos.

El papel comenta:

“El aprendizaje multitarea es efectivo, especialmente cuando las tareas están estrechamente relacionadas”.

MoSE fue entrenado en la búsqueda

El algoritmo MoSE se enfoca en aprender de lo que llama datos heterogéneos , lo que significa diferentes/diversas formas de datos.

De interés para nosotros, en el contexto de MUM, es que el algoritmo MoSE se analiza en el contexto de la búsqueda y las interacciones de los buscadores en su búsqueda de respuestas, es decir, qué pasos tomó un buscador para encontrar una respuesta.

“…en este trabajo, nos enfocamos en modelar flujos de actividad de usuarios a partir de fuentes de datos heterogéneas (p. ej., registros de búsqueda y registros de navegación) y las interacciones entre ellos”.

Los investigadores experimentaron y probaron el algoritmo MoSE en tareas de búsqueda dentro de G Suite y Gmail.

MoSE y predicción del comportamiento de búsqueda

Otra característica que convierte a MoSE en un candidato interesante para ser relevante para MUM es que puede predecir una serie de búsquedas y comportamientos secuenciales.

Las consultas de búsqueda complejas, como se indica en el anuncio de Google MUM, pueden requerir hasta ocho búsquedas.

Pero si un algoritmo puede predecir estas búsquedas e incorporarlas en las respuestas, el algoritmo puede responder mejor a esas preguntas complejas.

El anuncio de MUM dice:

“Pero con una nueva tecnología llamada Modelo Unificado Multitarea, o MUM, estamos cada vez más cerca de ayudarlo con este tipo de necesidades complejas. Por lo tanto, en el futuro, necesitará menos búsquedas para hacer las cosas”.

Y esto es lo que dice el trabajo de investigación del MoSE:

“Por ejemplo, los flujos de comportamiento de los usuarios, como los registros de búsqueda de usuarios en los sistemas de búsqueda, son naturalmente una secuencia temporal. Modelar los comportamientos secuenciales de los usuarios como representaciones secuenciales explícitas puede permitir que el modelo multitarea incorpore dependencias temporales, prediciendo así el comportamiento futuro de los usuarios con mayor precisión”.

MoSE es altamente eficiente con los costos de recursos

La eficiencia de MoSE es importante.

Cuantos menos recursos informáticos necesite un algoritmo para completar una tarea, más poderoso puede ser en esas tareas porque esto le da más espacio para escalar.

Se dice que MUM es 1000 veces más potente que BERT.

El trabajo de investigación del MoSE menciona equilibrar la calidad de la búsqueda con los » costos de los recursos», siendo los costos de los recursos una referencia a los recursos informáticos.

Lo ideal es tener resultados de alta calidad con costos mínimos de recursos informáticos que le permitan escalar para una tarea más grande como la búsqueda.

El algoritmo original de Penguin solo podía ejecutarse en el mapa de toda la web (llamado gráfico de enlaces ) un par de veces al año. Presumiblemente, eso se debió a que requería muchos recursos y no se podía ejecutar a diario.

En 2016, Penguin se volvió más poderoso porque ahora podía ejecutarse en tiempo real. Este es un ejemplo de por qué es importante producir resultados de alta calidad con costos mínimos de recursos.

Cuantos menos costos de recursos requiera MoSE, más poderoso y escalable puede ser.

Esto es lo que dijeron los investigadores sobre los costos de recursos de MoSE:

“En los experimentos, mostramos la efectividad de la arquitectura MoSE en siete arquitecturas alternativas en datos de usuario del mundo real tanto sintéticos como ruidosos en G Suite.

También demostramos la efectividad y flexibilidad de la arquitectura MoSE en un motor de toma de decisiones del mundo real en GMail que involucra a millones de usuarios, equilibrando la calidad de la búsqueda y los costos de los recursos”.

Luego, hacia el final del documento, informa estos notables resultados:

“Hacemos hincapié en dos beneficios de MoSE. En primer lugar, en cuanto al rendimiento, MoSE supera significativamente al modelo de fondo compartido muy ajustado. Con el requisito de un ahorro de recursos del 80 %, MoSE puede conservar aproximadamente un 8 % más de clics de búsqueda de documentos, lo que es muy significativo en el producto.

Además, MoSE es sólido en diferentes niveles de ahorro de recursos debido a su poder de modelado, aunque asignamos pesos iguales a las tareas durante el entrenamiento”.

Y del poder absoluto y la flexibilidad para girar hacia el cambio, se jacta:

“Esto le da a MoSE más flexibilidad cuando los requisitos comerciales siguen cambiando en la práctica, ya que un modelo más sólido como MoSE puede aliviar la necesidad de volver a entrenar el modelo, en comparación con modelos que son más sensibles a los pesos de importancia durante el entrenamiento”.

MUM, MoSE y Transformador

Se anunció que MUM se había construido utilizando la técnica Transformer.

El anuncio de Google señaló:

“MUM tiene el potencial de transformar la forma en que Google te ayuda con tareas complejas. Al igual que BERT, MUM se basa en una arquitectura Transformer, pero es 1000 veces más potente”.

Los resultados informados en el trabajo de investigación del MoSE de diciembre de 2020, hace seis meses, fueron notables.

Pero la versión de MoSE probada en 2020 no se creó con la arquitectura Transformer. Los investigadores notaron que MoSE podría ampliarse fácilmente con transformadores.

Los investigadores (en un artículo publicado en diciembre de 2020) mencionaron los transformadores como una dirección futura para MoSE:

“Experimentar con técnicas más avanzadas como Transformer se considera un trabajo futuro.

… MoSE, que consta de bloques de construcción generales, se puede ampliar fácilmente, como el uso de otras unidades de modelado secuencial además de LSTM, incluidas GRU, atenciones y transformadores…»

De acuerdo con el trabajo de investigación entonces, MoSE podría potenciarse fácilmente mediante el uso de otras arquitecturas, como Transformers. Esto significa que MoSE podría ser parte de lo que Google anunció como MUM.

Por qué el éxito de MoSE es notable

Google publica muchas patentes de algoritmos y artículos de investigación. Muchos de ellos están empujando los bordes del estado del arte al mismo tiempo que notan fallas y errores que requieren más investigación.

Ese no es el caso con MoSE. Es todo lo contrario. Los investigadores notan los logros de MoSE y cómo todavía existe la oportunidad de mejorarlo aún más.

Lo que hace que la investigación de MoSE sea aún más notable es el nivel de éxito que afirma y la puerta que deja abierta para hacerlo aún mejor.

Es digno de mención e importante cuando un trabajo de investigación afirma ser un éxito y no una mezcla de éxito y pérdidas.

Esto es especialmente cierto cuando los investigadores afirman lograr estos éxitos sin niveles significativos de recursos.

¿MoSE es la tecnología MUM AI de Google?

MUM se describe como una tecnología de inteligencia artificial. MoSE está categorizado como inteligencia artificial en el blog de IA de Google. ¿Cuál es la diferencia entre IA e inteligencia artificial? No mucho, están más o menos en la misma categoría (tenga en cuenta que escribí INTELIGENCIA de máquina, no aprendizaje de máquina). La base de datos de publicaciones de Google AI clasifica los trabajos de investigación sobre inteligencia artificial en la categoría de inteligencia artificial . No hay categoría de Inteligencia Artificial.

No podemos decir con certeza que MoSE sea parte de la tecnología subyacente al MUM de Google.

  • Es posible que MUM sea en realidad una serie de tecnologías que trabajan juntas y que MoSE sea parte de eso.
  • Podría ser que MoSE sea una parte importante de Google MUM.
  • O podría ser que MoSE no tenga nada que ver con MUM en absoluto.

Sin embargo, es intrigante que MoSE sea un enfoque exitoso para predecir el comportamiento de búsqueda del usuario y que se pueda escalar fácilmente usando Transformers.

Ya sea que esto sea o no parte de la tecnología MUM de Google, los algoritmos descritos en estos documentos muestran cuál es el estado del arte en la recuperación de información.

Esta publicación ha sido guardado 1 veces por nuestros usuarios.

Compártelo en

Déjanos un comentario

{{ reviewsTotal }}{{ options.labels.singularReviewCountLabel }}
{{ reviewsTotal }}{{ options.labels.pluralReviewCountLabel }}
{{ options.labels.newReviewButton }}
{{ userData.canReview.message }}
Anuncio curso instagram master

Top 5: Los más vistos

10 Consejos para preparar su Negocio Online este Black Friday
10 Consejos para preparar su Negocio Online este Black Friday
16 noviembre 2018
Como vender Chatbots a negocios
Como vender Chatbots a negocios
12 marzo 2022
Shorts de YouTube tiene 30 mil millones de vistas diarias
Shorts de YouTube tiene 30 mil millones de vistas diarias, prueba anuncios
27 abril 2022
El cambio de nombre "Meta" de Facebook
El cambio de nombre "Meta" de Facebook también provocó el comienzo de su nuevo esfuerzo para recuperar a la juventud
1 noviembre 2021
El recuento de usuarios activos de Pinterest sigue cayendo
El recuento de usuarios activos de Pinterest sigue cayendo
4 febrero 2022
Anuncio curso instagram master