No menu items!
-Publicidad-spot_img

Usar Google no será como antes: estos son los detalles de la “multibúsqueda”

Comparte esto:

La empresa tecnológica reveló las nuevas funciones que tendrá su buscador, así como la aplicación Google Lens.

Las nuevas funciones tienen el potencial de mejorar la conexión de los usuarios con los negocios locales.

El motor de búsquedas más importante del mundo, Google, reveló hoy el listado de novedades que trae para sus usuarios en los próximos meses. Gran parte de estos desarrollos se apoyan en tecnologías como el aprendizaje automático y la inteligencia artificial, por lo que la forma de hacer búsquedas no solo sería diferente, sino más intuitiva y sorprendente.

Google Lens es una de las herramientas que, por su propia naturaleza, refleja a la perfección lo anterior. Para quienes aún no conocen esta función, esta permite hacer búsqueda utilizando fotografías o capturas de pantalla. Si, por ejemplo, no sé para qué sirve un objeto, podría tomarle una foto, cargarla a lens y encontrar en internet artículos web que dirán cómo se llama, para qué sirve y cuánto vale.

La novedad que anunció Google hoy es que Lens incorporará la función de “multibúsqueda cerca de mí”, la cual permitirá al usuario tomar la foto de un objeto y encontrarlo (u otros similares) en lugares cercanos. La tecnológica señala que esta función tiene el potencial de beneficiar al comercio local en las ciudades.

“La ‘multibúsqueda cerca de mi’ comenzará a implementarse en inglés en los EE.UU. a finales de este otoño”, precisó Google.

Parte de los adelantos que ha mostrado Google es un ejemplo en el que una persona le toma una foto al patrón que tiene estampado una camisa, luego esta persona busca (en la barra de búsqueda) palabras con las que podría relacionarse esa foto, como medias y platos, entre otros objetos. La Inteligencia Artificial del buscador reconoce esos términos y arroja productos con el mismo patrón, o patrones similares.

Las mejoras de Lens también se verán en su función de traducción que, por si no lo sabe, con tan solo apuntar la cámara del teléfono a un letrero, o sacar el texto de una captura de pantalla, es capaz de traducirlo al idioma del usuario.

“Con los grandes avances en el aprendizaje automático, ahora podemos combinar texto traducido en imágenes complejas, con lo que se ve y se siente mucho más natural. Incluso hemos optimizado nuestros modelos de aprendizaje automático para poder hacer todo esto en sólo 100 milisegundos, más rápido que un abrir y cerrar de ojos. Esto utiliza redes adversarias generativas (también conocidas como modelos GAN), que es lo que ayuda a habilitar la tecnología detrás del Magic Eraser en Pixel. Esta experiencia mejorada se lanzará a finales de este año”, detalló Google.

Búsquedas predictivas y más detalladas

Con la intención de facilitar aún más la tarea de realizar búsquedas, en los próximos meses Google actualizará su buscador para que, en la medida en que una persona comienza a escribir en su barra de búsqueda, la IA comience a arrojar sugerencias de lo que probablemente quiere buscar el usuario.

Esto se verá como pequeñas cajas con palabras o frases debajo de la barra de búsqueda. “A medida que comiences a escribir en el cuadro de búsqueda, te proporcionaremos opciones de palabras clave o temas para ayudarte a formular tu pregunta. Digamos que estás buscando un destino en México. Te ayudaremos a hacer más específica tu pregunta, por ejemplo, “las mejores ciudades de México para familias”, para que puedas navegar hacia resultados más relevantes para ti”, explicó Google.

En aspectos como lugares, el buscador también anunció que brindará información más detallada. Por ejemplo, al buscar una ciudad, los resultados mostrarán fotos, una breve descripción, videos, clima local, mapa y lugares para visitar. Todo organizado en una especie de cuadrícula que le permitirá al usuario consumir toda esta información en un solo vistazo.

Cinco productos tecnológicos que usamos a diario y que no paran de evolucionar

“Verás el contenido más relevante, desde una variedad de fuentes, sin importar el formato en que esté la información, ya sea texto, imágenes o video. Y a medida que continúes desplazándote, verás una nueva forma de inspirarte mediante temas relacionados con tu búsqueda. Por ejemplo, es posible que nunca hayas pensado visitar los sitios históricos aztecas en Oaxaca o encontrar música en vivo mientras estás allí”, precisó Google.

El motor de búsqueda señaló que todas estas funciones estarán disponibles en los próximos meses.

Fuente: El Espectador

Comparte esto:

La empresa tecnológica reveló las nuevas funciones que tendrá su buscador, así como la aplicación Google Lens.

Las nuevas funciones tienen el potencial de mejorar la conexión de los usuarios con los negocios locales.

El motor de búsquedas más importante del mundo, Google, reveló hoy el listado de novedades que trae para sus usuarios en los próximos meses. Gran parte de estos desarrollos se apoyan en tecnologías como el aprendizaje automático y la inteligencia artificial, por lo que la forma de hacer búsquedas no solo sería diferente, sino más intuitiva y sorprendente.

Google Lens es una de las herramientas que, por su propia naturaleza, refleja a la perfección lo anterior. Para quienes aún no conocen esta función, esta permite hacer búsqueda utilizando fotografías o capturas de pantalla. Si, por ejemplo, no sé para qué sirve un objeto, podría tomarle una foto, cargarla a lens y encontrar en internet artículos web que dirán cómo se llama, para qué sirve y cuánto vale.

La novedad que anunció Google hoy es que Lens incorporará la función de “multibúsqueda cerca de mí”, la cual permitirá al usuario tomar la foto de un objeto y encontrarlo (u otros similares) en lugares cercanos. La tecnológica señala que esta función tiene el potencial de beneficiar al comercio local en las ciudades.

“La ‘multibúsqueda cerca de mi’ comenzará a implementarse en inglés en los EE.UU. a finales de este otoño”, precisó Google.

Parte de los adelantos que ha mostrado Google es un ejemplo en el que una persona le toma una foto al patrón que tiene estampado una camisa, luego esta persona busca (en la barra de búsqueda) palabras con las que podría relacionarse esa foto, como medias y platos, entre otros objetos. La Inteligencia Artificial del buscador reconoce esos términos y arroja productos con el mismo patrón, o patrones similares.

Las mejoras de Lens también se verán en su función de traducción que, por si no lo sabe, con tan solo apuntar la cámara del teléfono a un letrero, o sacar el texto de una captura de pantalla, es capaz de traducirlo al idioma del usuario.

“Con los grandes avances en el aprendizaje automático, ahora podemos combinar texto traducido en imágenes complejas, con lo que se ve y se siente mucho más natural. Incluso hemos optimizado nuestros modelos de aprendizaje automático para poder hacer todo esto en sólo 100 milisegundos, más rápido que un abrir y cerrar de ojos. Esto utiliza redes adversarias generativas (también conocidas como modelos GAN), que es lo que ayuda a habilitar la tecnología detrás del Magic Eraser en Pixel. Esta experiencia mejorada se lanzará a finales de este año”, detalló Google.

Búsquedas predictivas y más detalladas

Con la intención de facilitar aún más la tarea de realizar búsquedas, en los próximos meses Google actualizará su buscador para que, en la medida en que una persona comienza a escribir en su barra de búsqueda, la IA comience a arrojar sugerencias de lo que probablemente quiere buscar el usuario.

Esto se verá como pequeñas cajas con palabras o frases debajo de la barra de búsqueda. “A medida que comiences a escribir en el cuadro de búsqueda, te proporcionaremos opciones de palabras clave o temas para ayudarte a formular tu pregunta. Digamos que estás buscando un destino en México. Te ayudaremos a hacer más específica tu pregunta, por ejemplo, “las mejores ciudades de México para familias”, para que puedas navegar hacia resultados más relevantes para ti”, explicó Google.

En aspectos como lugares, el buscador también anunció que brindará información más detallada. Por ejemplo, al buscar una ciudad, los resultados mostrarán fotos, una breve descripción, videos, clima local, mapa y lugares para visitar. Todo organizado en una especie de cuadrícula que le permitirá al usuario consumir toda esta información en un solo vistazo.

Cinco productos tecnológicos que usamos a diario y que no paran de evolucionar

“Verás el contenido más relevante, desde una variedad de fuentes, sin importar el formato en que esté la información, ya sea texto, imágenes o video. Y a medida que continúes desplazándote, verás una nueva forma de inspirarte mediante temas relacionados con tu búsqueda. Por ejemplo, es posible que nunca hayas pensado visitar los sitios históricos aztecas en Oaxaca o encontrar música en vivo mientras estás allí”, precisó Google.

El motor de búsqueda señaló que todas estas funciones estarán disponibles en los próximos meses.

Fuente: El Espectador

-Publicidad-spot_img

Lo más leído