Google anunció un conjunto de actualizaciones impulsadas por inteligencia artificial para sus servicios de búsqueda, mapas y lentes durante su reciente presentación en París, y Lens se beneficiará de una nueva característica particularmente útil en los próximos meses.
Pronto, los usuarios de Google Lens en Android podrán buscar lo que ven en fotos y videos solo a través del Asistente de Google. La integración funcionará en innumerables sitios web y aplicaciones, y permitirá a las personas obtener más información sobre la información contenida en las imágenes (piense en nombres de edificios, recetas de alimentos o modelos de automóviles) sin tener que alejarse de esas imágenes. Como explicó Google en su presentación de París, “si puedes verlo, puedes buscarlo”.
¿Confundido? Vea la última actualización de Google Lens en acción a través del tweet a continuación, que muestra a un usuario identificando el Palacio de Luxemburgo a través del video de un amigo del punto de referencia.
En los próximos meses, presentaremos una ✨actualización importante✨ para ayudarlo a buscar lo que hay en la pantalla de su dispositivo móvil. Pronto podrá usar Lens a través del Asistente para buscar lo que ve en fotos o videos en sitios web y aplicaciones en Android. . #googlelivefromparis pic.twitter.com/UePB421wRY8 de febrero de 2023
Google aún no ha ofrecido una fecha para la llegada de la nueva función, aunque la compañía ha prometido implementar la actualización “en los próximos meses” (lo que, por nuestro dinero, probablemente signifique febrero o marzo de 2023).
Mejoras significativas también se dirigen a la función de búsqueda múltiple de Google. La capacidad de agregar una consulta de texto a las búsquedas de Lens ahora está disponible a nivel mundial en todos los idiomas y países admitidos, y Google también presenta la capacidad de encontrar diferentes variaciones (por ejemplo, forma y color) de objetos capturados a través de Lens.
Como explicó Google en París: “Por ejemplo, es posible que esté buscando ‘ideas modernas para la sala de estar’ y vea una mesa de café que le encanta, pero la preferiría en otra forma, digamos, un rectángulo en lugar de un círculo. Podrá usar Multisearch para agregar el texto ‘rectángulo’ para encontrar el estilo que está buscando”. Vea la función en acción a continuación:
¡Multisearch ya está disponible en todo el mundo! Prueba esta nueva forma de buscar con imágenes y texto al mismo tiempo. 🤯 Entonces, si ves algo que te gusta, pero lo quieres en un estilo, color o calce diferente, solo toma o sube una foto con Lens y luego agrega texto para encontrarlo. 🔎#googlelivefromparis pic.twitter.com/4yT6voiJkn8 de febrero de 2023
¿Una nueva era de búsqueda?
En otra parte, durante la exhibición reciente de Google, la compañía anunció una serie de actualizaciones impulsadas por IA para la Búsqueda de Google y Google Maps.
Por ejemplo, Google pronto integrará su “servicio de inteligencia artificial conversacional experimental”, Bard, en la Búsqueda para ofrecer a los usuarios resultados de búsqueda más precisos y convenientes. Como explicó Google en París, pronto podrá hacer preguntas como “¿cuáles son ¿Cuáles son las mejores constelaciones para observar las estrellas?”, y luego profundice en qué época del año es mejor para verlas a través de útiles sugerencias de IA.
La medida sigue al anuncio de Microsoft de un motor de búsqueda Bing rediseñado y alimentado por IA que utiliza la misma tecnología que ChatGPT.
En cuanto a Google Maps, la función Vista inmersiva del servicio, que le permite recorrer puntos de referencia de manera virtual, está recibiendo una mejora significativa en cinco ciudades importantes del mundo, mientras que su función Vista en vivo, que usa la cámara de su teléfono para ayudarlo a explorar una ciudad a través de un superposición AR ordenada: está configurada para una expansión similar.
Estaremos probando todas las funciones anteriores por nosotros mismos en los próximos meses, pero para un resumen breve de todo lo demás anunciado en el escaparate de Google en París, diríjase a nuestro blog en vivo de Google ‘Live from Paris’.