NVIDIA y Google Cloud trabajan juntos para impulsar la computación de IA

NVIDIA y Google Cloud trabajan juntos para impulsar la computación de IA


Para proporcionar la infraestructura más reciente para las cargas de trabajo de computación de IA de próxima generación, como la IA generativa y las ciencias de datos, NVIDIA se ha asociado con Google Cloud.

Para el desarrollo de la IA generativa y la ciencia de datos, NVIDIA ofrece a Google Cloud su mejor infraestructura de IA

Comunicado de prensa: Los clientes ahora pueden crear e implementar modelos masivos para la IA generativa y acelerar las cargas de trabajo de la ciencia de datos con la nueva infraestructura y el software de IA de Google Cloud y NVIDIA.

Según una charla informal celebrada en GoogleCloud Next, esta asociación permitirá ofrecer servicios integrales de aprendizaje automático a algunos de los principales clientes de IA del mundo, lo que incluye facilitar el funcionamiento de superordenadores de IA con las ofertas de Google Cloud basadas en tecnologías de NVIDIA. En las nuevas integraciones de hardware y software se utilizan las mismas tecnologías de NVIDIA utilizadas por Google DeepMind y los equipos de investigación de Google durante los dos últimos años.

“We’re at an inflection point where accelerated computing and generative AI have come together to speed innovation at an unprecedented pace,” Huang said. “Our expanded collaboration with Google Cloud will help developers accelerate their work with infrastructure, software, and services that supercharge energy efficiency and reduce costs.”

“Google Cloud has a long history of innovating in AI to foster and speed innovation for our customers,” Kurian said. “Many of Google’s products are built and served on NVIDIA GPUs, and many of our customers are seeking out NVIDIA accelerated computing to power efficient development of LLMs to advance generative AI.”

Integraciones de NVIDIA para acelerar el desarrollo de la inteligencia artificial y la ciencia de datos

El marco de Google para crear enormes modelos de lenguaje (LLM) de gran tamaño, como PAxML, se ha mejorado para la computación acelerada de NVIDIA.

PaXML, que inicialmente se diseñó para abarcar varios segmentos de aceleradores de TPU de Google, ahora permite a los desarrolladores experimentar y escalar con las GPU Tensor Core H100 y A100. El catálogo de software NVIDIA NGC incluye un contenedor PaXML que se optimiza para la GPU de forma inmediata. PaXML también utiliza JAX, que se ha optimizado para la GPU mediante el compilador OpenXLA.

Los investigadores, empresas emergentes y empresas de todo el mundo que estén creando la próxima generación de aplicaciones impulsadas por la IA tendrán acceso inmediato al contenedor optimizado por NVIDIA para paXML que figura en el registro de contenedores de NGC. Estas nuevas integraciones representan las más recientes de la larga trayectoria de colaboración entre NVIDIA y Google. Se cruzan con anuncios de hardware y software, como:

    Google Cloud en máquinas virtuales A3 con la tecnología NVIDIA H100: la plataforma de inteligencia artificial de Nvidia ahora es más accesible para una amplia gama de cargas de trabajo gracias al anuncio realizado hoy por la empresa de que su GOOPS, diseñado específicamente, estará disponible para el público en general el mes que viene. Las máquinas virtuales A3 aumentan considerablemente el ancho de banda de la red y ofrecen una formación tres veces más rápida que la generación anterior.

  • Los clientes podrán crear rápidamente máquinas LLM de IA generativas gracias a las GPU H100 que utilizarán la plataforma Vertex AI de Google Cloud, y que se espera que estén disponibles ampliamente en VertexAI en las próximas semanas.
  • A fin de investigar sus capacidades para generar cargas de trabajo de IA, Google Cloud será una de las primeras empresas del mundo en tener acceso al superordenador de IA NVIDIA DGX GH200.
  • Los clientes podrán acceder a la supercomputación y al software de IA de DGX Cloud directamente desde sus navegadores web para acelerar y escalar las cargas de trabajo de formación complejas.
  • Los usuarios pueden acceder a la plataforma de software segura y nativa de la nube conocida como NVIDIA AI Enterprise en Google Cloud Marketplace, lo que facilita la creación y el uso de aplicaciones empresariales, como la inteligencia artificial generativa, la inteligencia artificial del habla o la visión artificial, entre otras.
  • Con la presentación de la máquina virtual G2 a principios de este año, Google Cloud se convirtió en el primer proveedor de servicios en la nube en ofrecer GPU L4 Tensor Core. Los clientes de NVIDIA que cambien de CPU a GPU L4 para cargas de trabajo de vídeo de IA pueden conseguir un rendimiento hasta 120 veces superior con una eficiencia un 99% superior. Las GPU L4 se utilizan con frecuencia para la transcodificación de audio y vídeo acelerada por la VDI y la IA, así como para la generación de imágenes y textos.