Conferencia de desarrolladores
Google permite probarse ropa virtualmente con su nueva herramienta de IA
La nueva herramienta, llamada "Try it on" (pruébatelo), solo necesita una foto de cuerpo entero, pero no necesita saber cuánto mide o pesa el potencial comprador

Google. / EFE
EFE
Google busca revolucionar el mundo de la compra en línea al dejar que los internautas se prueben la ropa en sus propios modelos virtuales tras subir una foto de cuerpo entero, anunció el gigante tecnológico este martes en su conferencia de desarrolladores Google I/O.
Por el momento, esta función que se lanza hoy en Search Labs en EE. UU. solo deja ver cómo le quedaría al potencial comprador una prenda, pero no garantiza que las blusas, pantalones, faldas o vestidos -que son las vestimentas que están disponibles en esta primera versión- se ajusten la perfección al cuerpo del internauta ni deja que los usuarios se prueben distintas tallas.
"El propósito no es tanto que quede bien. La clave es poder ver cómo luce", dijo a EFE Lilian Rincon, vicepresidenta de producto de compras para el consumidor de la empresa, antes de la presentación.
Es por ello que la herramienta, llamada "Try it on" (pruébatelo), solo necesita una foto de cuerpo entero, pero no necesita saber cuánto mide o pesa el potencial comprador.
Los usuarios de EE. UU. podrán usar esta modalidad para "probarse miles de millones de prendas de la base de Shopping Graph".
No obstante, a diferencia del famoso ordenador de la película 'Clueless', la nueva función no deja combinar diversas prendas.
Rincon explicó que esta nueva herramienta usa un modelo de Gemini -la inteligencia artificial (IA) de Google- que ha recibido una capacitación en moda y que es capaz de comprender el cuerpo humano y los matices de la ropa; como cómo se doblan, se estiran y se adaptan los diferentes materiales a los distintos cuerpos.
Que la IA compre por el usuario
La compañía también anunció un agente de IA hoy que puede comprar la ropa por el usuario cuando alcance la rebaja deseada por el internauta.
"Ahora puede decir: 'Oye, quiero esos zapatos, pero tienen que ser talla 8 y los quiero en este color en particular'. Luego, (si el producto baja de precio) recibe una notificación para que confirme que aún quiere que compre eso por usted. Luego, el agente irá al sitio web del vendedor con la talla, el color o lo que le haya indicado, lo agregará a su carrito y lo comprará en su nombre", explicó Rincon.
Monetizar estas nuevas herramientas con anuncios es un objetivo secundario para Google. De acuerdo con Rincon, la meta de la empresa es "ser lo más útiles posible para los consumidores"
"Una vez que descubrimos que algo realmente conecta con los consumidores, probamos anuncios en las experiencias", anotó la vicepresidenta y ejemplificó que en la herramienta de Modo IA -que es capaz de "buscar inspiración visual" a la hora de hacer una compra- hay anuncios dispersos por todo el mosaico de productos e imágenes.
Nuevo modelo de generación de vídeo
Google lanzó además su nuevo modelo de generación de video con inteligencia artificial (IA), Veo 3, que por primera vez puede generar vídeo y audio -música, efectos especiales y diálogo-, pues hasta ahora la IA solo podía generar imágenes, pero no sonido.
"Estamos adentrándonos en una nueva era de creación", dijo Josh Woodward, vicepresidente de Google Labs y Gemini, desde el escenario de la conferencia de desarrolladores Google I/O.
Esta vanguardista herramienta de generación de vídeo, según la compañía, mejora la calidad de Veo 2 -que se anunció este año para hacer frente a modelos parecidos de su competidor OpenAI- y "por primera vez" puede generar videos con audio: ruidos de tráfico de fondo en una escena callejera, pájaros cantando en un parque e incluso diálogos entre personajes.
El titán tecnológico también anunció un nuevo modelo para generar imágenes con IA, Imagen 4. La peculiaridad de esta nueva herramienta es que es capaz de recrear texto, algo que hasta ahora era complicado para la IA.
"Imagen 4 puede crear imágenes en diversas relaciones de aspecto y con una resolución de hasta 2k, incluso mejor para impresión o presentaciones. Además, es mucho mejor en ortografía y tipografía, lo que facilita la creación de tarjetas personalizadas para celebraciones, pósteres e incluso cómics", anota la empresa en un comunicado.
Otra novedad es Flow, un mecanismo para edición de cine que Google describe como "una herramienta de cine con IA que te permite crear clips, escenas e historias cinematográficas".
Flow se lanza hoy en EE. UU. para los suscriptores de los nuevos planes Google AI Pro y Google AI Ultra de Google.
IA en las búsquedas
Por otra parte, Google ha anunciado que a partir de hoy empezará a incluir en su buscador de Estados Unidos un "modo con inteligencia artificial (IA)" que fusiona su IA más potente de la compañía -Gemini 2.5- con todas las búsquedas que comprende la web.
Sundar Pichai, director ejecutivo de la compañía, ha descrito este cambio como una "reinvención total" del buscador y ha destacado que ahora se podrán realizar "consultas más largas y complejas" usando un lenguaje natural y sin la necesidad de utilizar palabras clave.
"De hecho, los primeros usuarios que han probado la plataforma han respondido realizando consultas dos o tres veces más largas, a veces hasta cinco veces más largas que las búsquedas tradicionales", ha recalcado Pichai, ya que lleva disponible este Modo IA como un experimento preliminar para los suscriptores de Google One AI Premium.
A diferencia del buscador convencional, el Modo IA utiliza una técnica "de abanico de consultas", que consiste en dividir la pregunta del usuario en subtemas y buscar una respuesta para cada una de esas divisiones, lo que, según la empresa, "permite profundizar en la web y encontrar contenido relevante y específico".
Otra característica de esta nueva manera de buscar es que es capaz de "visualizar información", por ejemplo, generando gráficas para explicar una respuesta.
"El usuario puede crear visualizaciones de datos nunca antes publicadas ni creadas sobre temas que le interesen", ha afirmado a EFE Robby Stein, vicepresidente de Google Search en una entrevista previa al evento, quien ha puesto como ejemplo la creación de una gráfica para comparar los partidos de dos equipos de béisbol.
Este nuevo chatbot contará con una nueva pestaña en el clásico buscador de Google -como la de imagen o la de noticias-.
La IA, la protagonista de Google I/O
La IA ha vuelto a ser la gran protagonista de Google I/O, hasta el punto que Pichai, al final de la presentación, ha subrayado que durante las casi dos horas se dijo "IA" en 92 ocasiones y Gemini en 92.
Otra novedad que se ha comunicado hoy es que llegan al ecosistema de Google agentes que pueden interactuar solos con una página web para realizar múltiples tareas para el usuario, ya que son capaces de leer webs, mover el cursor, apretar botones y hasta rellenar formularios.
Mientras, los agentes de Project Mariner pueden completar hasta diez tareas diferentes a la vez y pueden hacer reservas, comprar e investigar precios.
La versión actualizada de Project Mariner está disponible para los suscriptores de Google AI Ultra en EE. UU., la versión de 25 dólares al mes que la compañía ha anunciado hoy.
Google también ha informado de que Overviews IA -el resumen de IA que aparece en la parte superior de una búsqueda, a partir de hoy se expandirá a "más de 200 países y territorios, y en más de 40 idiomas" al haber añadido compatibilidad con árabe, chino, malayo y urdu, entre otras lenguas.
La popularidad de IA de Google, pese a sus errores
Pichai ha indicado que en sus mercados más importantes, como EE. UU. y la India, la herramienta de Overviews ha hecho que haya más búsquedas.
"A medida que las personas utilizan Overviews, se sienten cada vez más satisfechas con los resultados y buscan con más frecuencia. Overviews está impulsando un crecimiento de más del 10 % en las consultas", ha comentado.
Overview IA tiene más de mil quinientos millones de usuarios cada mes, lo que se traduce "que la Búsqueda de Google está llevando la IA generativa a más personas que cualquier otro producto en el mundo", según Pichai.
Por su parte, la app Gemini cuenta ahora con más de 400 millones de usuarios activos mensuales.
A medida que aumentan los usuarios, la empresa ha ido "experimentando" con integrar publicidad y ahora Google muestra anuncios de productos relacionados con la búsqueda en la parte inferior de la respuesta generada por la IA en Overviews.
Pero no todo han sido éxitos desde que Google lanzara la IA en su ecosistema: ha habido errores en demostraciones en vivo, o graves inexactitudes al recrear momentos históricos (los soldados negros en el ejército nazi), una receta de cocina que incluía pegamento en una pizza o un consejo de ingerir una piedra al día para obtener minerales.
Stein ha declarado a EFE que la IA es propensa a cometer errores, pero que la empresa ahora ha reprogramado el sistema para que solo seleccione la información que es precisa.
Google lucha en la carrera de la IA con otros titanes de la tecnología como Microsoft o Meta y con empresas más pequeñas como OpenAI y su popular chatbot, ChatGPT.
No obstante, hace unos días, en el Tribunal de Distrito de EE. UU. en Washington, un abogado del Departamento de Justicia argumentó que Google podría usar su monopolio en las búsquedas para convertirse en un producto de IA omnipresente y, mientras, hacerse con el dominio del mercado.
Android XR, gafas inteligentes con traducción en vivo
Por último, Google presentó su última versión de gafas inteligentes, Android XR, un modelo que incorpora su inteligencia artificial Gemini y que es capaz de traducir en vivo, aunque la demostración de esa función dio fallos durante la conferencia para desarrolladores Google I/O.
Hace una década que Google trabaja el concepto de gafas inteligentes y Android XR representa dar "un gran paso adelante", según la compañía.
"Equipadas con cámara, micrófonos y altavoces, estas gafas funcionan en conjunto con su teléfono, permitiéndole acceder a sus aplicaciones sin tener que buscar en el bolsillo", explicó la empresa.
Estas futuristas gafas, además, cuentan con una "pantalla opcional" en el interior de la lente que proporciona información útil de forma privada, como un mapa o un mensaje de texto.
Google también anotó este martes que se ha esforzado para hacer estos modelos más elegantes, razón por la que el gigante tecnológico colabora con Gentle Monster y Warby Parker como socios fundadores para el suministro de las monturas.
Para ejemplificar todas las funciones, dos empleados de Google hablaron farsi e hindi mientras las monturas XR proporcionaban traducción en tiempo real al inglés.
No obstante, hubo un momento en el que ambas gafas no funcionaron correctamente.
A pesar de la presentación por todo lo alto, la compañía no indicó cuándo podría salir este modelo ni qué precio tendrá. Hasta ahora, el modelo más barato las de gafas inteligentes de Ray-Ban y Meta cuesta unos 300 dólares.
- Investigan si la descarga eléctrica 'en cadena' que mató a la niña en la feria fue por la toma de tierra: 'Quedó pegada a la valla
- Cáncer de ano: el tumor que puede confundirse con hemorroides y afecta a mayores de 50 años
- Mercedes Milá habla ahora de la 'penitencia' que sufrió en su entrevista con Sonsoles Ónega: 'Ella no sabe nada
- Ningún técnico municipal ni autonómico revisó la atracción de la feria de Alquerías donde murió una niña
- Realizan 83 asistencias sanitarias durante el Festival del Aire de San Javier
- Alertas por calor y tormentas este martes en la Región de Murcia
- Este murciano necesita un 13,8 en la PAU para entrar a la universidad y así es su reacción al ver las notas: 'Perdón por vivir en el mismo planeta que tú
- José Abellán (cardiólogo, Murcia): 'Para saber si has descansado bien el indicador más fiable es cuando terminas de comer