
Sundar Pichai, CEO de Google, durante la presentación de Google I/O. El Androide Libre
La gran evolución de la IA de Google: traducción simultánea en Meet, creación de vídeo con audio y gafas inteligentes
Gemini se coloca como la piedra angular de las soluciones de Google y llega para revolucionar el ecosistema: del buscador con IA al asistente universal.
Más información: Google lanza la app NotebookLM en España: así es el cuaderno de notas con IA que va directo a por ChatGPT
Google ha dado un golpe sobre la mesa. La compañía de Mountain View ha celebrado su evento anual de desarrolladores, Google I/O, donde ha presentado un aluvión de novedades que van a marcar el futuro de la compañía, todo bajo un mismo denominador común: la inteligencia artificial.
Si hace una semana demostró cómo la IA se integraría en sus dispositivos Android, ahora extienden Gemini para crear un asistente universal de IA.
La ambición de Google es clara: si hasta ahora ha sido sinónimo de dar respuesta a lo que el usuario necesitaba encontrar, ahora quiere ir un paso más allá siendo capaz de hacer frente a peticiones más complejas, personalizadas e integrarse en el día a día del usuario.
Lo hace con funcionalidades que comprenden el contexto del usuario, lo que le rodea, sigue la conversación, se ajusta a las necesidades más allá de las peticiones y para eso es capaz de usar todo su potencial.
El punto de partida es la mejora de Gemini, con un progreso en las versiones 2.5 Flash y Pro, así como introducen el pensamiento profundo con un razonamiento mayor en tareas matemáticas y de código. Sin embargo, entre las grandes novedades que van a permitir la integración de la IA en la vida diaria del usuario está un cambio en el buscador que incorpora un nuevo modo IA —yendo mucho más allá de AI Overviews—.
Además, Google también ha estado trabajando en las mejoras en la personalización de respuestas, traducción automática de audio en Google Meet, seguimiento de productos y compras en la web, mejora en la creación de imágenes y vídeos —ahora con sonido—, así como un nuevo vistazo a Android XR, que lleva Gemini a gafas y cascos de realidad aumentada.
"Hay más inteligencia disponible, para todos, en todas partes. Y el mundo está respondiendo, adoptando la IA más rápido que nunca... Todo este progreso significa que nos encontramos en una nueva fase de la transición de la plataforma de IA", explicaba Sundar Pichai, CEO de Google y Alphabet sobre el escenario.
"Décadas de investigación se están haciendo realidad para personas, empresas y comunidades de todo el mundo", subrayó.
Gemini como asistente universal
La ambición de Google con Gemini es que acompañe al usuario en su día a día. En todas partes, en todo momento. Que sea ese compañero al que confiar todo lo que necesitemos.
"Estamos construyendo una IA más personal, proactiva y poderosa, que enriquece nuestras vidas, acelera el progreso científico y marca el comienzo de una nueva era dorada de descubrimiento y asombro", explicaba Demis Hassabis, CEO de Google DeepMind.

Demis Hassabis, CEO de Google Deepmind El Androide Libre
Hassabis comenta que han estado trabajando en mejorar y ampliar su mejor modelo de base multimodal, Gemini 2.5 Pro, para convertirlo en un "modelo de mundo", una IA que sea capaz de hacer planes e imaginar nuevas experiencias mediante la comprensión y simulación de aspectos del mundo, real, "tal y como lo hace el cerebro".
Esta capacidad de Gemini para usar el conocimiento del mundo y el razonamiento para representar y simular entornos naturales, se podrá usar desde para generar fotografías y vídeos a incorporar en robots.
Sus nuevas habilidades serán especialmente útiles en Project Astra, el proyecto que marcará una nueva era en las gafas inteligentes. Aquí es clave la comprensión de video, el uso compartido de pantalla y la memoria.
La llegada de Gemini Live ha servido a Google para mejorar y explorar innovaciones que permitan a su IA relacionarse con el entorno, por lo que han añadido voces y una conversación más natural y fluida.
La idea es que la aplicación de Gemini se transforme en un asistente universal de IA que realizará tareas cotidianas por nosotros, se encargará de las tareas administrativas rutinarias, presentará recomendaciones, haciéndonos más productivos y enriqueciendo la experiencia.
Aquí cobra especial importancia Project Mariner, un prototipo de investigación que explora el futuro de la interacción humano-agente, comenzando con los navegadores.
Se trata de una prueba piloto en EE.UU. con un sistema de agentes virtuales que pueden completar hasta diez tareas diferentes a la vez. Estos agentes pueden ayudar a buscar información, hacer reservas, comprar o investigar al mismo tiempo.
Un nuevo buscador: llega AI Mode
Pero si hay un servicio icónico de Google que va a cambiar con la llegada de la IA ese es Search, su buscador. Mientras que ChatGPT ha demostrado no ser capaz de doblar el brazo de Google, la gran G ha presentado un ambicioso plan para transformar por completo la experiencia de buscar información en Search.
Google explica que desde el lanzamiento de AI Overviews, se ha producido un cambio en las peticiones de los usuarios "hacen más preguntas, incluyendo preguntas más complejas, largas y multimodales", lo que ha llevado a impulsar un 10% el uso de Google. Ahora, van un paso más allá y han lanzado el Modo IA, que en un primer momento llegará a EE.UU.
El Modo IA es nuevo sistema de búsqueda que usa Gemini con un razonamiento más avanzado, multimodal y potente para profundizar en preguntas de seguimiento y enlaces a la web. Usa su técnica de ramificación de consultas, desglosando tu pregunta en subtemas y emitiendo una multitud de consultas simultáneamente en nombre del usuario.

Presentación del modo AI del Buscador de Google. El Androide Libre
"Esto permite que la Búsqueda se adentre más en la web que una búsqueda tradicional en Google, ayudándote a descubrir aún más de lo que la web tiene para ofrecer y a encontrar contenido increíble e hiperrelevante que coincida con tu pregunta", explica Liz Reid, responsable de Google Search.
Entre las novedades de Search estarán la capacidad de realizar búsquedas profundas para investigaciones, consultando cientos de búsquedas al mismo tiempo y analizando los resultados en tiempo real para combinarlo en una respuesta —con acceso a las fuentes—.
También se podrán hacer búsquedas en tiempo real con Search Live, un sistema parecido al de Gemini Live pero que hará que la experiencia de usuario sea más fluida ya que podrá usar la cámara de su smartphone.
Asimismo también estará centrado en las compras. Podremos pedirle al buscador "compra dos entradas para el concierto de esta tarde", él buscará cuáles son las mejores opciones y las mostrará al usuario. Lo hará de una forma más profunda gracias a la alianza con empresas como Ticketmaster, StubHub, Resy o Vagaro.
Además, Search incorpora a las compras un seguimiento de precio de los productos, con lo que si estamos interesados en un bolso, nos podrá avisar cuando esté en su mínimo precio y comprarlo directamente con un toque gracias a Google Pay.
Una de las novedades en compras es el uso de la inteligencia artificial para probarnos ropa virtualmente, lo que sirve para hacernos una idea de cómo nos puede quedar ese pantalón que nos interesa de una tienda online. Bastará con hacerse una foto para que el usuario sepa cómo puede quedar esa prenda en su cuerpo.
La revolución de las gafas
En Google llevan más de una década trabajando en el concepto de gafas inteligentes y es ahora con Android XR cuando han dado un gran paso hacia adelante.
Tras el anuncio de su alianza el año pasado con Samsung en su casco que rivalizará con Vision Pro, Google va un paso más allá y ha anunciado un acuerdo con Gentle Monster y Warby Parker, para crear gafas con Android XR. Y es que la compañía lo tiene claro: "las gafas solo son realmente útiles si quieres usarlas todo el día".

Demo de gafas inteligentes con Android XR. El Androide Libre
Estas gafas están equipadas con cámara, micrófonos y altavoces y funcionan en conjunto con tu teléfono, permitiéndote acceder a tus aplicaciones sin tener que buscar en el bolsillo. Además, una pantalla opcional en la lente proporciona información útil de forma privada justo cuando la necesitas.
"Al combinar estas gafas con Gemini, ven y escuchan lo que haces, para que comprendan tu contexto, recuerden lo que es importante para ti y te proporcionen información justo cuando la necesitas". Es un ataque directo a las Ray-Ban de Meta.
Aunque aún no hay fecha de cuándo llegarán este año, el adelanto de hoy ha mostrado cómo funcionarán las gafas Android XR en situaciones reales, incluyendo enviar mensajes a amigos, concertar citas, pedir indicaciones paso a paso, tomar fotos y más.
Incluso hicimos una demostración de traducción en vivo entre dos personas, mostrando el potencial de estas gafas para romper las barreras lingüísticas, u ofreciendo subtítulos para el mundo real. De momento habrá que esperar unos meses para verlas terminadas.
Vídeo profesional con texto
Entre las mejoras de Gemini está el avance en la generación de imágenes y vídeos con Flow, un modelo de vídeo generativo de aspiración profesional hecho para Veo 3, potenciando así su realismo y sus dinámicas fluidas, que le han convertido en referencia del sector. Ahora, además incorpora sonido, haciendo que la experiencia sea total.
La gracia de Flow es que el creador podrá usar sus propios recursos para crear personajes o usar Flow para crear tus propias imágenes con las funciones de texto a imagen de Imagen.
We’re also launching Veo 3, our state-of-the-art video generation model.
— Google Gemini App (@GeminiApp) May 20, 2025
Veo 3 lets you generate videos with sound effects, background noises and even dialogue.#GoogleIO pic.twitter.com/atVx6HvI9R
Una vez creado un sujeto o una escena, se pueden integrar en diferentes clips y escenas de forma consistente. O puedes usar la imagen de una escena para iniciar una nueva toma.
Entre las funciones que alimentan esta nueva narrativa está una gama de funciones para profesionales o principiantes; el control de la cámara, pudiendo pedirle a la IA el movimiento, los ángulos y las perspectivas de la cámara.
También permitirá crear escenas y amplíar tomas existentes en tiempo real; gestionar mucho más fácil las indicaciones; así como Flow TV, donde el usuario podrá inspirarse con una selección en constante crecimiento de clips, canales y contenido generado con Veo.
Para usar Flow con Veo 3 será necesario disponer de Google AI Ultra, que costará 249,99 dólares al mes e incluye además Gemini app con 2.5 Pro Deep Think y Veo 3, Whisk, NoteboolLM con los límites más altos, Gemini en Gmail, Docs y vídeos, Gemini en Chrome, Project Mariner, YouTube Premium y 30 TB de almacenamiento.
Google Beam: videollamadas reales y fluidas
Tras presentarlo hace un par de años, Google no se olvida de Project Starline, su solución para realizar videollamadas que se acercan a la telepresencia. Denominado como Google Beam, esta plataforma utilizará IA para habilitar "una nueva generación de dispositivos que ayuden a las personas a establecer conexiones significativas, sin importar dónde se encuentren".
La gracia de este sistema es el empleo de vídeo volumétrico que transforma transmisiones de vídeo 2D en experiencias 3D realistas, lo que permite conectar de forma más natural e intuitiva. "La combinación de nuestro modelo de video de IA y nuestra pantalla de campo de luz crea una sensación de dimensionalidad y profundidad".

Google Beam El Androide Libre
Entre otras mejoras, "esto permite establecer contacto visual, interpretar señales sutiles y generar comprensión y confianza como si estuvieran cara a cara". Para el desarrollo de estos dispositivos están trabajando en colaboración con HP para lanzar los primeros dispositivos Google Beam al mercado con clientes selectos a finales de este año.
Esta solución no está pensada para el hogar, sino para oficinas y entornos laborales. Aun así, Google ha incorporado en Google Meet una de las funciones que también llegarán a Beam, la traducción simultánea en videollamadas.
En un primer momento será Español-Inglés y permitirá mantener conversaciones traducidas auténticas, casi en tiempo real, manteniendo la voz, el tono y las expresiones. "Es el primer paso de una visión más amplia para ver y comprender a la perfección a cualquier persona en todo el mundo", explica la empresa.