Google Cloud Next ’25: la inteligencia artificial como motor de transformación empresarial

Thomas Kurian, CEO de Google Cloud, anunció una avalancha de innovaciones en infraestructura, modelos de IA generativa y soluciones para entornos regulados. Con Gemini como protagonista y el lanzamiento de la AI Hypercomputer, la compañía busca posicionarse como el partner estratégico para acelerar la transformación digital y la competitividad en el mercado IT.

Durante la keynote de apertura del evento Google Cloud Next ‘25, que se celebra en Las Vegas, Thomas Kurian, CEO de Google Cloud, dejó en claro que la visión de una inteligencia artificial transformadora ya se está materializando en resultados concretos:

“Bienvenidos a Google Cloud Next ‘25. Hace solo un año, compartimos una visión sobre cómo la IA puede transformar fundamentalmente a las organizaciones. Hoy, esa visión no es solo una posibilidad: es la vibrante realidad que estamos construyendo colectivamente”, dijo Kurian.

Gemini, Vertex AI y un nuevo paradigma de productividad

Según detalló Kurian, en el último año se lanzaron más de 3.000 mejoras de producto en Google Cloud y Workspace, lo que permitió una aceleración notable en el uso de sus herramientas. Actualmente, más de 4 millones de desarrolladores están construyendo con Gemini, la familia de modelos de IA más avanzada de la compañía.

Esta adopción masiva viene acompañada de un crecimiento exponencial en el uso de Vertex AI, que se multiplicó por 20 en solo un año, impulsado por Gemini, Imagen (modelo de generación de imágenes) y Veo (modelo líder en generación de video). En el entorno empresarial, Google Workspace ya ofrece más de 2.000 millones de asistencias con IA por mes, cambiando radicalmente la forma de trabajar.

“Hoy, en Next ‘25, nos enorgullece anunciar nuevas innovaciones significativas en todo nuestro portafolio”, destacó el directivo.

AI Hypercomputer: potencia, eficiencia y bajo costo

Una de las novedades más resonantes fue el lanzamiento de AI Hypercomputer, una arquitectura de supercómputo diseñada para simplificar el despliegue de IA, optimizar costos y mejorar el rendimiento.

“Nuestra AI Hypercomputer es un sistema de supercomputación revolucionario, meticulosamente diseñado para simplificar el despliegue de la inteligencia artificial, mejorar drásticamente el rendimiento y optimizar los costos”, puntualizó Kurian.

Este sistema combina hardware, software y modelos de consumo, y ya es utilizado por compañías como Anthropic, Anyscale, Arize y Contextual AI, además de grandes marcas globales como Airbus, Schrödinger y Toyota.

Entre los nuevos componentes presentados se destacan:

Ironwood TPUs: Séptima generación de TPUs, con más de 9.000 chips por pod y una capacidad de 42,5 exaflops, más de 10 veces superior a su predecesora. Diseñada para modelos de IA de altísima demanda como Gemini 2.5.

Cluster Director: Permite gestionar grandes cantidades de aceleradores como una única unidad de cómputo, maximizando eficiencia y resiliencia.

Nuevas VMs A4 y A4X con GPUs Blackwell B200 y GB200 de NVIDIA, y soporte para las futuras Vera Rubin GPUs, capaces de entregar hasta 15 exaflops de rendimiento FP4 por rack.

Innovación en almacenamiento y software

Para acompañar esta potencia, Google presentó mejoras clave en almacenamiento:

Hyperdisk Exapools: Bloques de almacenamiento de alto rendimiento con capacidad de hasta exabytes por clúster.

Anywhere Cache: Reduce hasta en 70% la latencia de almacenamiento, acelerando tiempos de entrenamiento.

Rapid Storage: Almacenamiento zonal de objetos con 5 veces menor latencia en lecturas y escrituras aleatorias frente a alternativas actuales.

En software, se anunciaron herramientas para optimizar inferencia:

GKE Inferencing: Nuevas funciones en Google Kubernetes Engine reducen costos hasta 30% y mejoran latencias y rendimiento.

Pathways: El motor de inferencia desarrollado por DeepMind ahora disponible para clientes cloud.

vLLM en TPUs: Permite ejecutar cargas PyTorch optimizadas con vLLM en TPUs de forma rentable y eficiente.

Kurian destacó que el uso combinado de estas tecnologías permite alcanzar una relación de costo-beneficio superior en IA:

Gemini 2.0 Flash, impulsado por la AI Hypercomputer, alcanza una inteligencia 24 veces mayor por dólar en comparación con GPT-4o y 5 veces mayor que DeepSeek-R1.

IA para entornos regulados

Para organizaciones con restricciones de soberanía, latencia o regulación, se presentó una versión local de los modelos de IA:

“Hoy, nos complace anunciar que Google Distributed Cloud (GDC) está llevando los modelos de Google a entornos on-premise”, destacó Amin Vahdat VP and GM, Machine Learning, Systems, and Cloud AI Google Cloud.

Gracias a una alianza con NVIDIA y Dell, Google podrá llevar Gemini a sistemas Blackwell en entornos air-gapped o conectados. Además, la solución GDC ya fue autorizada para entornos de seguridad máxima del gobierno de EE.UU., permitiendo ejecutar Gemini con los más altos estándares de compliance.

Comparté este artículo

Noticias Relacionadas