Google, con su traductor, hace ya tiempo que le ha solucionado la vida al más de medio mundo que no sabe idiomas. En su presentación de este martes ha dado un paso al frente y ha respondido a la necesidad de la traducción simultánea durante conversaciones, al menos mediante videoconferencia. El buscado ha presentado nuevas funcionalidades de su modelo de IA, entre las que destacan las que cambias su buscador para que sea inteligente y ahorre tecleado, mientras que publicidad aún más personalizada para que compremos mientras buscamos. La IA en la realidad extendida también será pronto un presente de la multinacional que, como lo sabe todo de nosotros, tiene una gran ventaja en el entrenamiento de sus modelos de inteligencia artificial.
Según el CEO de Google y su empresa matriz, Alphabet, Sundar Pichai, que arrancó la presentación del evento anual más importante de la compañía, la conferencia de desarrolladores Google I/O 2025, reconoció que sus modelos de inteligencia artificial generativa progresan gracias a «nuestra infraestructura líder mundial», pero no solo por sus características técnicas, si no porque tiene todos los datos de más de medio mundo par alimentar sus modelos Gemini.
Según reconoce el directivo, «el mundo responde adoptando la IA más rápido que nunca».», y para eso la maquinaria de la compañía procesa ya más de 480 billones de tokens, y cuenta con 7 millones de desarrolladores que crean con Gemini, «cinco veces más que el año pasado en estas fechas» y la app de IA cuenta con «más de 400 millones de usuarios activos al mes. Estamos viendo un gran crecimiento y uso, sobre todo con los modelos de la serie 2.5. En el caso de 2.5 Pro en la aplicación Gemini, el uso ha aumentado un 45%».
GOOGLE Y LA TRADUCCIÓN EN DIRECTO
Una de las novedades que ha sorprendido al mundo en la reciente conferencia es la posibilidad de traducción simultánea con Google Meet, que va a cambiar las conversaciones, reuniones y videoconferencias a nivel mundial. La novedad está dentro de las experiencias mucho más inmersivas que presenta la herramienta, «que incluye la tecnología que ayuda a las personas a derribar las barreras lingüísticas con la traducción automática de voz, que estará disponible en Google Meet.
Según explican, la nueva función traduce nuestras palabras al idioma preferido de nuestro interlocutor casi en tiempo real, con baja latencia y conservando nuestra voz, tono y expresión. El resultado es una conversación «auténtica y natural, incluso en diferentes idiomas, ya sean nietos angloparlantes charlando sin problemas con sus abuelos hispanohablantes o colegas de todo el mundo conectando desde distintos continentes«. Si en los Erasmus se formaban parejas, el nuevo Google Meet puede ser una nueva vía para el amor entre distintas nacionalidades.
la posibilidad de traducción simultánea con Google Meet, que va a cambiar las conversaciones, reuniones y videoconferencias a nivel mundial
La traducción de voz de la herramienta de videoconferencia está por el momento disponible en versión beta para los suscriptores de los planes Google AI Pro y Ultra, inicialmente en inglés y español, y en las próximas semanas se añadirán más idiomas. Google está desarrollando esta función para empresas, y las primeras pruebas estarán disponibles para los clientes de Workspace este año.
También se mostraron las nuevas capacidades de Veo3, el modelo de generación de video SOTA, con generación de audio nativa, que para cineastas y creativos, combina lo mejor de Veo, Imagen y Gemini en una nueva herramienta de realización cinematográfica llamada Flow, y también ya está disponible para los suscriptores del plan Google AI Pro y Ultra.

OTRAS NOVEDADES DE GOOGLE
En cuanto a creatividad a la hora de hacer vídeos, también presentaron» Google Beam, una nueva plataforma de comunicaciones de vídeo basada en IA«, que usa un nuevo modelo de vídeo de última generación para transformar flujos de vídeo 2D en una experiencia 3D realista. Para ello, utiliza un conjunto de seis cámaras y la IA para combinar flujos de vídeo y renderizarte en una pantalla de campo de luz 3D.
Tiene un seguimiento de la cabeza «casi perfecto, hasta el milímetro, y a 60 fotogramas por segundo, todo en tiempo real». El resultado es una experiencia conversacional mucho más natural e inmersiva, según aseguran. En colaboración con HP, los primeros dispositivos Google Beam estarán disponibles para los primeros clientes a finales de este año.
Google va a conjugar Gemini con Android XR, con lo que conseguirá incluir inteligencia artificial en su ecosistema de cascos y gafas de realidad virtual
Google también va a avanzar en la integración de su IA Gemini en los dispositivos con sistema Android como teléfonos móviles, relojes inteligentes, televisores o, incluso, coches. Además, va a conjugar Gemini con Android XR, con lo que conseguirá incluir inteligencia artificial en su ecosistema de cascos y gafas de realidad virtual, de manera que se convierta en un asistente «que está contigo, compartiendo tu perspectiva y listo para ayudarte en cuanto inicies la conversación. Esto te libera las manos para que puedas estar presente y conectado con el mundo que te rodea, ya sea real o virtual», según ha explicado la compañía.
Si las gafas inteligentes han sido un éxito para Meta ayudado por la marca Ray Ban, Google da un paso más de la mano de Gentle Monster y Warby Parker para crear gafas también estéticas y elegantes, pero con Android XR. Las gafas tendrán cámara, micrófonos y altavoces, y funcionarán conectadas al teléfono móvil.
Se podrán combinar con Gemini, por lo que podrán ver y escuchar «lo que haces, de modo que comprenden tu contexto, recuerdan lo que es importante para ti y pueden ayudarte a lo largo del día». Las gafas con Android XR permitirán, entre otras cosas, enviar mensajes a los contactos y ofrecerán traducción e interpretación en tiempo real, según la compañía, que destinará hasta 150 millones de dólares a su colaboración con Warby Parker, para empezar.
El vicepresidente de la plataforma Android XR en Google, aprovechó también para anunciar que las nuevas gafas inteligentes ‘Project Moohan’, la alternativa de Samsung a las Apple Vision Pro, estarán disponibles para su compra a finales de este 2025, gracias a la colaboración de la firma coreana y el buscador para crear una plataforma de software y hardware de referencia que permitirá al ecosistema de desarrolladores crear gafas de realidad virtual «cada vez más sofisticadas».
BUSCAR Y COMPRAR MÁS FÁCIL
Otra de las grandes novedades es el Modo IA en la Búsqueda de Google, que Google está empezando a implementar, pero por el momento en EE.UU. Con una interfaz parecida a la de una IA generativa dentro de la búsqueda de Google, la herramienta extrae información directamente, en ves de tener que recorrernos el interminable listado de enlaces al que nos tiene acostumbrados.
Al buscar una información, mostrando necesidades y preferencias en un prompt, Google hará listas por temáticas, mapas e información clasificada y sintetizada y, cómo no, ofrecerá un conjunto personalizado de anuncios. Así, si buscamos información de un centro comercial, por ejemplo, seguro que acabamos comprando online todo antes de desplazarnos al lugar en concreto.
el buscador reconoce de forma interna cuándo una pregunta requiere un razonamiento avanzado. con gemini, Divide la pregunta en diferentes subtemas y emite múltiples consultas simultáneamente
Según el responsable del equipo de Búsqueda de Google, «el buscador reconoce de forma interna cuándo una pregunta requiere un razonamiento avanzado. Recurre a nuestra versión personalizada de Gemini para dividir la pregunta en diferentes subtemas y emite múltiples consultas simultáneamente. Busca en toda la web, con una profundidad mucho mayor que una búsqueda tradicional».
Además explicó que «aprovecha todos nuestros conjuntos de datos en tiempo real, como el Gráfico de Conocimiento, el Gráfico de Compras y, en este caso, datos locales, incluyendo información de nuestra comunidad de Maps con más de 500 millones de colaboradores. La Búsqueda recopila una respuesta y revisa su trabajo para garantizar que cumpla con nuestros altos estándares de calidad de la información» y sentenció que «con el Modo IA, obtienes todo esto con una sola búsqueda, y lo obtienes rápidamente».