Microsoft Não Parará de Comprar Chips de IA da Nvidia e AMD Mesmo Após Lançar o Seu Próprio, Diz Nadella

Microsoft Won’t Stop Buying AI Chips From Nvidia and AMD Even After Launching Its Own, Nadella Says

Pontos principais

  • A Microsoft começou a implantar seu próprio chip de inferência de IA Maia 200 em data centers.
  • O Maia 200 é descrito como uma potência de inferência de IA e alega ter um desempenho superior aos chips Trainium da Amazon e às Unidades de Processamento de Tensor do Google.
  • O CEO Satya Nadella disse que a Microsoft continuará comprando GPUs da Nvidia e AMD, apesar do novo chip.
  • A equipe de Superinteligência, liderada por Mustafa Suleyman, será a primeira a usar o Maia 200 internamente.
  • O Maia 200 também suportará modelos de OpenAI no Azure.
  • A estratégia combina o desenvolvimento de chips internos com parcerias de fornecedores existentes para resolver desafios de suprimentos.

A Microsoft começou a implantar seu próprio chip de inferência de IA Maia 200 em seus data centers, enquanto confirma que continuará comprando GPUs da Nvidia e AMD. O CEO Satya Nadella enfatizou as parcerias contínuas da empresa e a necessidade de manter a liderança em hardware de IA.

Microsoft Implanta Seu Primeiro Chip de IA Interno

A Microsoft recentemente instalou o primeiro lote de seu próprio processador de inferência de IA, o Maia 200, em um data center e planeja expandir a implantação nos próximos meses. O chip é comercializado como uma "potência de inferência de IA", otimizado para o trabalho de computação exigente de executar modelos de IA em ambientes de produção.

Alegações de Desempenho e Paisagem Competitiva

De acordo com a Microsoft, o Maia 200 supera as ofertas concorrentes, como os chips Trainium da Amazon e as Unidades de Processamento de Tensor do Google. A empresa, como outros gigantes de nuvem, está perseguindo silício personalizado para resolver a dificuldade e o custo de garantir o último hardware da Nvidia, uma escassez de suprimentos que persiste.

Parcerias Contínuas com a Nvidia e AMD

Apesar do lançamento de seu próprio chip, o CEO da Microsoft, Satya Nadella, afirmou que a empresa continuará comprando GPUs da Nvidia e AMD. Ele destacou o valor dessas parcerias, observando que ambas as empresas estão inovando ao lado da Microsoft. Nadella explicou que a integração vertical não significa dependência exclusiva de componentes internos; a empresa continuará a buscar chips externos como parte de sua estratégia mais ampla.

Primeiro Uso Interno pela Equipe de Superinteligência

O Maia 200 será inicialmente usado pela equipe de Superinteligência da Microsoft, que é responsável por desenvolver os modelos de IA de fronteira da empresa. Mustafa Suleyman, ex-co-fundador do Google DeepMind e atual líder da equipe, anunciou que seu grupo terá acesso ao novo processador. Ele postou no X que o lançamento marcou um "grande dia" para a equipe.

Suporte a Modelos de OpenAI no Azure

A Microsoft também indicou que o Maia 200 suportará modelos de OpenAI em execução na plataforma de nuvem Azure, garantindo que os clientes possam se beneficiar do novo hardware, mesmo quando usam serviços de IA externos.

Implicações Estratégicas

A abordagem dupla de construir silício proprietário, enquanto mantém fortes relacionamentos com fornecedores, reflete o objetivo da Microsoft de manter a liderança no mercado de hardware de IA em rápida evolução. Ao aproveitar tecnologias internas e externas, a empresa busca mitigar riscos de suprimentos e acelerar suas capacidades de IA em projetos internos e serviços de nuvem.

#Microsoft#chips de IA#Nvidia#AMD#Azure#equipe de Superinteligência#Maia 200#inferência de IA#computação em nuvem#hardware de IA

Também disponível em: