Google anunció un nuevo modelo de inteligencia artificial para búsqueda multimodal llamado MUM (modelo unificado multitarea) en su conferencia de desarrolladores Google anunció la firma de las nuevas funciones orientadas al consumidor, incluida la búsqueda visual.
Actualmente Big G le ofrece información contextual, como fragmentos de Wikipedia, letras de canciones o videos de recetas en función de su frase de búsqueda, su objetivo es obtener resultados al comprender el contexto más allá de la frase que ha utilizado.
Su primera característica anunciada es la búsqueda visual, donde podrás mirar determinada imagen ya sea de una camisa y buscar el icono de la lente y pedirle a Google que busque el patrón para encontrar lo que estas buscando.
También puedes usar la lente para tomar una foto de una pieza rota de una bicicleta o x cosa y, simplemente buscar “como arreglar” para obtener guías en video o sobre determinado tema. Esto es muy útil cuando no conoce el nombre de la parte, lo que podría dificultar mucho la búsqueda textual.
Google también está tratando de mostrar más contexto para las frases que busca con la sección “Cosas que debe saber”. Por ejemplo, cuando busque “pintura acrílica”, el resultado le mostrará cosas como “Qué artículos del hogar usar” entre otros resultados para la actividad.
Esta es la apuesta de Google de leer más allá de la frase de búsqueda.
La nueva IA de Google también ayudará a acercar y alejar un resultado de búsqueda con funciones de mejora y ampliación de resultados, además si está buscando inspiración a través de la frase “verter ideas para pintar”, Google mostrará una página de resultados visuales para que pueda desplazarse.Hay un par de temas que se destacan en estas nuevas funciones: uso extendido de Google Lens, uso del aprendizaje automático para encontrar la correlación entre palabras y ayuda para encontrar más información contextual sobre un tema.