Google dio inicio este martes a las 2 pm a su encuentro anual para desarrolladores, llamado Google I/O 2025, donde anunció un nuevo modo de búsquedas con respuestas generadas por inteligencia artificial, y un probador de ropa virtual, entre otras cosas.
Google presentó también un nuevo generador de imágenes, llamado Imagen 4: 10 veces más rápido, con mejor manejo de texto, y con mayor comprensión de nuestros pedidos.
La compañía además anunció la nueva versión de su motor de generación de video con inteligencia artificial, llamado Veo 3, que además de video es capaz de generar el audio que acompaña a la imagen en movimiento: diálogo, sonido de foto, todo. Está disponible hoy.
Video, meet audio. 🎥🤝🔊
With Veo 3, our new state-of-the-art generative video model, you can add soundtracks to clips you make.
Create talking characters, include sound effects, and more while developing videos in a range of cinematic styles. 🧵 pic.twitter.com/5Hfpetfg8b
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Google anunció la integración de Gemini en Chrome: llega esta semana a los usuarios pagos de Gemini en EE.UU.; permite dejar que Gemini analice todo lo que está apareciendo en una página web que estamos visitando, y nos sugiera acciones; un poco como hace Microsoft con Copilot.
AI Mode puede servir también como un asistente inteligente para hacer compras: se le pueden hacer pedidos de recomendaciones de una alfombra, por ejemplo, teniendo en cuenta que se usará en una casa donde hay chicos o mascotas que podrían ensuciarla.
Pero también puede generar un probador virtual de ropa: con una foto nuestra de cuerpo entero le podemos pedir que nos muestre cómo nos quedará; entiende la diferencia entre nuestro cuerpo y el de la persona que lo está modelando, cómo fluye cada tipo de tejido y más.
Por ahora está limitado a los Estados Unidos.
El probador de ropa virtual de Google AI Mode
De lo que AI Mode se trata es de poder procesar todo tipo de consultas no estructuradas, o que no tienen un sitio como resultado, sino un concepto. Todo esto ya estaba en AI Overview, pero ahora con mayor complejidad tanto en la consulta como en la respuesta. Incluso puede determinar cuál es el mejor tipo de respuesta (un texto, un gráfico, etcétera).
Las respuestas a las búsquedas serán también personalizadas, teniendo en cuenta búsquedas anteriores y otros elementos de contexto que nos puedan resultar relevantes.
Y los resultados tendrán links a las fuentes de contenido, como ya tiene AI Overview (Google dice que esto no impacta negativamente en las visitas que los usuarios hacen a esos sitios).
Las búsquedas también se pueden hacer con la cámara en vivo, como si fuera Gemini Live.
Sundar Pichai observa que hay 1500 millones de usuarios de AI Overview, la plataforma que combina las búsquedas de Google con resultados generados por IA a partir de los links de resultados.
La compañía presenta AI Mode, una forma de usar Google disponible a partir de hoy en el buscador (solo en EE.UU por ahora), que permite hacer consultas más complejas y más largas (2 o 3 veces más complejas, según Google) en el buscador. Por supuesto, las respuestas ya no serán una serie de links, sino un texto multimedia que responde directamente a la consulta (como ya permite AI Overview, pero con mucha mayor riqueza discursiva).
Google dice que está desarrollando Gemini para que entienda la física del mundo, como las cosas físicas se relacionan con (e influyen sobre) las otras, para crear un verdadero asistente universal de IA. La compañía muestra un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta; le pide que busque videos en YouTube, que haga una compra de repuestos en una tienda y más; la IA incluso deja de hablar cuando entra otra persona y habla. No hay, por ahora, fecha para que esté disponible algo así de sofisticado, pero la apuesta está en hacer que Gemini Live sea el primer paso.
Google anuncia un nuevo modelo prototipo, llamado Gemini Difussion, y una nueva versión de Gemini 2.5 Pro, llamado Deep Think, un modelo capaz de “tomarse más tiempo” en analizar la mejor respuesta a una consulta para ofrecer resultados más efectivos. Es un nuevo modo de razonamiento mejorado que Usa pensamiento paralelo, lo que significa que explora múltiples hipótesis de solución antes de responder.
La compañía muestra como el nuevo modelo de Gemini 2.5 Flash y Pro puede generar audio mucho más expresivo, con voces capaces de hablar en susurros y tonos de voz de todo tipo, en 24 idiomas; es para que los desarrolladores puedan crear herramientas más realistas.
Este nuevo modelo es un 22% más eficiente según la compañía, al requerir menos tokens (la medida y la “moneda” para usar un motor de IA) para lograr resultados similares.
Demis Hassabis anuncia la llegada de Gemini 2.5 Flash (disponible en unas semanas) y Gemini 2.5 Pro (más adelante).
Here’s the latest on Gemini 2.5 Pro and Flash:
We’re releasing a new preview version of Gemini 2.5 Flash. ⚡
2.5 Pro, our most intelligent model, is now the leading model for learning
2.5 Flash will be available in early June, with 2.5 Pro coming soon after#GoogleIO
— Google (@Google) May 20, 2025
Google también suma respuestas inteligentes personalizadas: hasta ahora ofrecía respuestas automáticas que la IA adaptaba al contexto de una conversación, pero que eran genéricas; ahora las crea aprendiendo de nuestro tono, la manera en que escribimos, cómo nos despedimos en una conversación, modismos, la información que tenemos en nuestro Gmail y Drive (si le damos autorización), incluso si no está en la cadena de mensajes principal para la que necesitamos una respuesta.
Sundar Pichai anuncia que todos los usuarios de Android y iOS podrán acceder a la nueva versión de Gemini Live a partir de hoy, capaz de interpretar todo lo que le muestra la cámara del teléfono y dialogar con nosotros en una conversación natural de audio.
También anunció Project Mariner para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (comprar cosas en otros sitios, intercambiar información)
Por ejemplo, le podemos pedir a Gemini que nos busque un departamento para alquilar, que requiere que la IA dialogue con varios servicios y plataformas para encontrar qué lugares están disponibles, dónde se ubican respecto de nuestros intereses, qué precios tienen, etcétera. Es un asistente en el sentido original del término: para poder delegarle tareas que dependen de herramientas externas.
Pichai menciona también una actualización para Google Meet: la traducción en tiempo real durante una videollamada, como tenía el difunto Skype, pero en vez de ofrecer subtítulos, lo hace con audio tomando la entonación de los hablantes originales, como un doblaje. El servicio estará disponible primero para traducir del inglés al español y vuelta, para usuarios pagos.
En mayo de 2024, Google procesaba 9,7 billones de tokens de IA por mes; hoy procesa 480 billones al mes (un token es la unidad de texto o información presente en una instrucción que le damos a una IA). La app Gemini tiene más de 400 millones de usuarios, dice Pichai.
Con un video generado por Veo, el motor de inteligencia artificial generativa para la creación de videos de Google, la compañía inicia el Google I/O 2025. Sube a escena Sundar Pichai, CEO de Google, que hace hincapié en el rápido desarrollo que está teniendo la IA dentro de la compañía (y fuera de ella también).
Según Pichai, Gemini 2.5 Pro es el mejor valorado entre los tests de IA generativa. Y logró terminar Pokémon, un logro para cualquier IA.
El año pasado, Google presentó un adelanto en el I/O 2024 de lo que luego se llamó AI Overview, la función hoy disponible en la Argentina y el mundo que ofrece respuestas a una búsqueda compilados en una sola página, con la posibilidad de ir a los links originales en un segundo paso.
Se espera que Google amplíe el alcance de esta herramienta, acechada por el crecimiento de ChatGPT y otras plataformas de inteligencia artificial como punto de partida para una experiencia online.
Google dio inicio este martes a las 2 pm a su encuentro anual para desarrolladores, llamado Google I/O 2025, donde anunció un nuevo modo de búsquedas con respuestas generadas por inteligencia artificial, y un probador de ropa virtual, entre otras cosas.
Google presentó también un nuevo generador de imágenes, llamado Imagen 4: 10 veces más rápido, con mejor manejo de texto, y con mayor comprensión de nuestros pedidos.
La compañía además anunció la nueva versión de su motor de generación de video con inteligencia artificial, llamado Veo 3, que además de video es capaz de generar el audio que acompaña a la imagen en movimiento: diálogo, sonido de foto, todo. Está disponible hoy.
Video, meet audio. 🎥🤝🔊
With Veo 3, our new state-of-the-art generative video model, you can add soundtracks to clips you make.
Create talking characters, include sound effects, and more while developing videos in a range of cinematic styles. 🧵 pic.twitter.com/5Hfpetfg8b
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Google anunció la integración de Gemini en Chrome: llega esta semana a los usuarios pagos de Gemini en EE.UU.; permite dejar que Gemini analice todo lo que está apareciendo en una página web que estamos visitando, y nos sugiera acciones; un poco como hace Microsoft con Copilot.
AI Mode puede servir también como un asistente inteligente para hacer compras: se le pueden hacer pedidos de recomendaciones de una alfombra, por ejemplo, teniendo en cuenta que se usará en una casa donde hay chicos o mascotas que podrían ensuciarla.
Pero también puede generar un probador virtual de ropa: con una foto nuestra de cuerpo entero le podemos pedir que nos muestre cómo nos quedará; entiende la diferencia entre nuestro cuerpo y el de la persona que lo está modelando, cómo fluye cada tipo de tejido y más.
Por ahora está limitado a los Estados Unidos.
El probador de ropa virtual de Google AI Mode
De lo que AI Mode se trata es de poder procesar todo tipo de consultas no estructuradas, o que no tienen un sitio como resultado, sino un concepto. Todo esto ya estaba en AI Overview, pero ahora con mayor complejidad tanto en la consulta como en la respuesta. Incluso puede determinar cuál es el mejor tipo de respuesta (un texto, un gráfico, etcétera).
Las respuestas a las búsquedas serán también personalizadas, teniendo en cuenta búsquedas anteriores y otros elementos de contexto que nos puedan resultar relevantes.
Y los resultados tendrán links a las fuentes de contenido, como ya tiene AI Overview (Google dice que esto no impacta negativamente en las visitas que los usuarios hacen a esos sitios).
Las búsquedas también se pueden hacer con la cámara en vivo, como si fuera Gemini Live.
Sundar Pichai observa que hay 1500 millones de usuarios de AI Overview, la plataforma que combina las búsquedas de Google con resultados generados por IA a partir de los links de resultados.
La compañía presenta AI Mode, una forma de usar Google disponible a partir de hoy en el buscador (solo en EE.UU por ahora), que permite hacer consultas más complejas y más largas (2 o 3 veces más complejas, según Google) en el buscador. Por supuesto, las respuestas ya no serán una serie de links, sino un texto multimedia que responde directamente a la consulta (como ya permite AI Overview, pero con mucha mayor riqueza discursiva).
Google dice que está desarrollando Gemini para que entienda la física del mundo, como las cosas físicas se relacionan con (e influyen sobre) las otras, para crear un verdadero asistente universal de IA. La compañía muestra un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta; le pide que busque videos en YouTube, que haga una compra de repuestos en una tienda y más; la IA incluso deja de hablar cuando entra otra persona y habla. No hay, por ahora, fecha para que esté disponible algo así de sofisticado, pero la apuesta está en hacer que Gemini Live sea el primer paso.
Google anuncia un nuevo modelo prototipo, llamado Gemini Difussion, y una nueva versión de Gemini 2.5 Pro, llamado Deep Think, un modelo capaz de “tomarse más tiempo” en analizar la mejor respuesta a una consulta para ofrecer resultados más efectivos. Es un nuevo modo de razonamiento mejorado que Usa pensamiento paralelo, lo que significa que explora múltiples hipótesis de solución antes de responder.
La compañía muestra como el nuevo modelo de Gemini 2.5 Flash y Pro puede generar audio mucho más expresivo, con voces capaces de hablar en susurros y tonos de voz de todo tipo, en 24 idiomas; es para que los desarrolladores puedan crear herramientas más realistas.
Este nuevo modelo es un 22% más eficiente según la compañía, al requerir menos tokens (la medida y la “moneda” para usar un motor de IA) para lograr resultados similares.
Demis Hassabis anuncia la llegada de Gemini 2.5 Flash (disponible en unas semanas) y Gemini 2.5 Pro (más adelante).
Here’s the latest on Gemini 2.5 Pro and Flash:
We’re releasing a new preview version of Gemini 2.5 Flash. ⚡
2.5 Pro, our most intelligent model, is now the leading model for learning
2.5 Flash will be available in early June, with 2.5 Pro coming soon after#GoogleIO
— Google (@Google) May 20, 2025
Google también suma respuestas inteligentes personalizadas: hasta ahora ofrecía respuestas automáticas que la IA adaptaba al contexto de una conversación, pero que eran genéricas; ahora las crea aprendiendo de nuestro tono, la manera en que escribimos, cómo nos despedimos en una conversación, modismos, la información que tenemos en nuestro Gmail y Drive (si le damos autorización), incluso si no está en la cadena de mensajes principal para la que necesitamos una respuesta.
Sundar Pichai anuncia que todos los usuarios de Android y iOS podrán acceder a la nueva versión de Gemini Live a partir de hoy, capaz de interpretar todo lo que le muestra la cámara del teléfono y dialogar con nosotros en una conversación natural de audio.
También anunció Project Mariner para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (comprar cosas en otros sitios, intercambiar información)
Por ejemplo, le podemos pedir a Gemini que nos busque un departamento para alquilar, que requiere que la IA dialogue con varios servicios y plataformas para encontrar qué lugares están disponibles, dónde se ubican respecto de nuestros intereses, qué precios tienen, etcétera. Es un asistente en el sentido original del término: para poder delegarle tareas que dependen de herramientas externas.
Pichai menciona también una actualización para Google Meet: la traducción en tiempo real durante una videollamada, como tenía el difunto Skype, pero en vez de ofrecer subtítulos, lo hace con audio tomando la entonación de los hablantes originales, como un doblaje. El servicio estará disponible primero para traducir del inglés al español y vuelta, para usuarios pagos.
En mayo de 2024, Google procesaba 9,7 billones de tokens de IA por mes; hoy procesa 480 billones al mes (un token es la unidad de texto o información presente en una instrucción que le damos a una IA). La app Gemini tiene más de 400 millones de usuarios, dice Pichai.
Con un video generado por Veo, el motor de inteligencia artificial generativa para la creación de videos de Google, la compañía inicia el Google I/O 2025. Sube a escena Sundar Pichai, CEO de Google, que hace hincapié en el rápido desarrollo que está teniendo la IA dentro de la compañía (y fuera de ella también).
Según Pichai, Gemini 2.5 Pro es el mejor valorado entre los tests de IA generativa. Y logró terminar Pokémon, un logro para cualquier IA.
El año pasado, Google presentó un adelanto en el I/O 2024 de lo que luego se llamó AI Overview, la función hoy disponible en la Argentina y el mundo que ofrece respuestas a una búsqueda compilados en una sola página, con la posibilidad de ir a los links originales en un segundo paso.
Se espera que Google amplíe el alcance de esta herramienta, acechada por el crecimiento de ChatGPT y otras plataformas de inteligencia artificial como punto de partida para una experiencia online.
Google anunció una nueva forma de buscar, con resultados generados por inteligencia artificial, ampliando la herramienta que ya estaba disponible, al admitir consultas muchísimo más complejas Read More