Ahora se informa que Microsoft y OpenAI lanzarán pronto su chip de IA, que competirá con modelos como los H100 de Nvidia, a medida que la industria de la IA se decante hacia soluciones locales.
Microsoft tiene como objetivo reducir la dependencia de NVIDIA y otros mediante la creación de sus propios chips de IA, con OpenAI como socio principal
Con poca o ninguna competencia y un gran volumen de pedidos de la industria, el negocio de Team Green iba bien. Pero, de repente, ¿qué ha llevado a las empresas a adoptar una estrategia «interna»? La solución es sencilla, supongo. Verás, NVIDIA ha conseguido mantener la atención del sector desde el inicio del «frenesí de la IA», y su GPU H100 AI es la tecnología más demandada.
Problemas como la acumulación de pedidos, los costes exorbitantes y el acceso «exclusivo» (en función de la relación entre las empresas y NVIDIA) fueron motivo de una gran demanda. Es posible que veamos un cambio en el panorama, ya que esto ha dado lugar a un terreno de juego «desequilibrado» para otras empresas. Actualmente, Microsoft es considerado un actor importante en el mercado de la IA y está trabajando rápidamente para crear recursos de IA generativos que se utilizarán en las aplicaciones cotidianas. Un «chip de IA» de fabricación propia es una solución práctica, según Microsoft, porque el estado de la industria de los chips de IA impide avanzar en su objetivo.

Aunque no hay muchos detalles sobre el chip específico, sí sabemos que Microsoft tiene la intención de presentarlo en su conferencia Ignite en noviembre de 2023 con el nombre de «Athena». La compañía quiere competir con las GPU H100 AI de Nvidia con su chip Athena, pero lograr este objetivo no es tan simple como parece. A una escala mucho mayor, los desarrolladores de IA prefieren NVIDIA debido a su plataforma CUDA «bien formada» y a las reconocidas tecnologías de software de la empresa, que diferencian a la H100 de sus rivales.
Si bien es posible que Microsoft pueda competir con Athena en términos de potencia informática, crear recursos de software llevará tiempo. Sin embargo, con sus propios chips de IA, Microsoft apunta principalmente a cumplir con los requisitos de sus socios y divisiones, incluidos Microsoft Azure y OpenAI. Se puede decir que Microsoft tiene los recursos necesarios para «perfeccionar» su chip de IA; todo lo que necesita es mucho tiempo.
Hasta este momento, OpenAI ha estado ejecutando su software ChatGPT en el hardware de IA y GPU Tensor Core de Nvidia, como las A100 y H100, pero con este nuevo desarrollo, la industria de la IA podría sufrir un cambio significativo. OpenAI utilizaba miles de GPU NVIDIA H100 para impulsar ChatGPT.
En estas coberturas, siempre he hecho hincapié en que una ola de «innovación» destinada a desmantelar los monopolios y alcanzar nuevas cotas se produce junto con el rápido desarrollo de un sector. Dado que siempre surgirá nueva competencia, el desarrollo actual es comparable, y el dominio de Nvidia en la industria de la IA es algo limitado. Sin embargo, el factor clave es el resultado de las cosas para Microsoft, dado que la empresa está a la vanguardia en términos de avances en IA por parte del consumidor.