Microsoft No Dejará de Comprar Chips de IA de Nvidia y AMD Incluso Después de Lanzar el Propio, Dice Nadella

Puntos clave
- Microsoft ha comenzado a implementar su propio chip de inferencia de IA Maia 200 en centros de datos.
- El Maia 200 se describe como una potencia de inferencia de IA y afirma un rendimiento superior a los chips Trainium de Amazon y las Unidades de Procesamiento de Tensor de Google.
- El CEO Satya Nadella dijo que Microsoft seguirá comprando GPUs de Nvidia y AMD a pesar del nuevo chip.
- El equipo de Superinteligencia, liderado por Mustafa Suleyman, será el primer usuario interno del Maia 200.
- Maia 200 también soportará modelos de OpenAI en Microsoft Azure.
- La estrategia combina el desarrollo de chips internos con asociaciones de proveedores existentes para abordar desafíos de suministro.
Microsoft ha comenzado a implementar su chip de inferencia de IA Maia 200 en sus centros de datos, al mismo tiempo que confirma que seguirá comprando GPUs de Nvidia y AMD. El CEO Satya Nadella enfatizó las asociaciones en curso de la empresa y la necesidad de mantenerse a la vanguardia en hardware de IA.
Microsoft Despliega su Primer Chip de IA Propio
Microsoft recientemente instaló el primer lote de su procesador de inferencia de IA propio, el Maia 200, en un centro de datos y planea expandir la implementación en los próximos meses. El chip se comercializa como una "potencia de inferencia de IA", optimizado para el trabajo de cómputo exigente de ejecutar modelos de IA en entornos de producción.
Reivindicaciones de Rendimiento y Paisaje Competitivo
Según Microsoft, el Maia 200 supera las ofertas competidoras como los chips Trainium de Amazon y las Unidades de Procesamiento de Tensor de Google. La empresa, al igual que otros gigantes de la nube, está persiguiendo silicio personalizado para abordar la dificultad y el gasto de asegurar el hardware más reciente de Nvidia, una escasez de suministro que persiste.
Asociaciones Continuas con Nvidia y AMD
A pesar del lanzamiento de su propio chip, el CEO de Microsoft Satya Nadella afirmó que la empresa seguirá comprando GPUs de Nvidia y AMD. Destacó el valor de esas asociaciones, señalando que ambas empresas están innovando junto con Microsoft. Nadella explicó que la integración vertical no significa una dependencia exclusiva de componentes internos; la empresa seguirá adquiriendo chips externos como parte de su estrategia más amplia.
Primer Uso Interno por el Equipo de Superinteligencia
El Maia 200 será utilizado inicialmente por el equipo de Superinteligencia de Microsoft, que se encarga de desarrollar los modelos de IA de vanguardia de la empresa. Mustafa Suleyman, ex cofundador de Google DeepMind y actual líder del equipo, anunció que su grupo tendrá acceso a el nuevo procesador. Publicó en X que el lanzamiento marcó un "gran día" para el equipo.
Soporte para Modelos de OpenAI en Azure
Microsoft también indicó que el Maia 200 soportará modelos de OpenAI que se ejecutan en la plataforma de nube Azure, asegurando que los clientes puedan beneficiarse del nuevo hardware incluso cuando utilicen servicios de IA externos.
Implicaciones Estratégicas
El enfoque dual de construir silicio propio mientras se mantienen fuertes relaciones con proveedores refleja el objetivo de Microsoft de mantenerse a la vanguardia en el mercado de hardware de IA en rápida evolución. Al aprovechar tanto tecnologías internas como externas, la empresa busca mitigar los riesgos de suministro y acelerar sus capacidades de IA en proyectos internos y servicios de nube.