Qualcomm Presenta los Chips AI200 y AI250 para Desafiar a Nvidia

Qualcomm is turning parts from cellphone chips into AI chips to rival Nvidia

Puntos clave

  • Qualcomm anunció los chips AI200 y AI250 construidos con tecnología Hexagon.
  • AI200, que se lanzará el próximo año, incluye 768 GB de RAM y admite configuraciones de rack de hasta 72 chips.
  • AI250, planeado para 2027, promete un impulso generacional en eficiencia y un menor consumo de energía.
  • Ambos procesadores apuntan a la inferencia de IA en lugar del entrenamiento de modelos.
  • La empresa de IA Humain, respaldada por el Fondo de Inversión Pública de Arabia Saudita, utilizará los chips en centros de datos de IA en Arabia Saudita.
  • Este movimiento posiciona a Qualcomm como un desafío a Nvidia en el mercado de aceleradores de IA.

Qualcomm anunció los procesadores AI200 y AI250, construidos con su tecnología de procesamiento neural Hexagon, para apuntar a las cargas de trabajo de inferencia de IA y competir con el dominio de Nvidia. El AI200, programado para su lanzamiento el próximo año, ofrece 768 GB de RAM y puede combinarse en racks de hasta 72 chips. El AI250, planeado para 2027, promete un salto generacional en eficiencia y un menor consumo de energía. La empresa de IA Humain, respaldada por el Fondo de Inversión Pública de Arabia Saudita, utilizará ambos chips en sus futuros centros de datos de IA, lo que señala el impulso de Qualcomm en el mercado de IA de alto rendimiento.

Qualcomm Se Expande en el Hardware de Inferencia de IA

Qualcomm reveló planes para dos nuevos procesadores de IA, el AI200 y el AI250, diseñados específicamente para implementar modelos de inteligencia artificial en lugar de entrenarlos. Ambos chips aprovechan las unidades de procesamiento neural Hexagon de la empresa, que actualmente alimentan las funciones de IA en los dispositivos móviles, portátiles y equipos de telecomunicaciones de Qualcomm.

AI200: Oferta Inmediata con Alta Capacidad de Memoria

El AI200 está programado para su lanzamiento el próximo año. Cuenta con 768 GB de RAM y está optimizado para tareas de inferencia de IA. El diseño de Qualcomm permite que el AI200 se monte en una configuración de rack donde hasta 72 chips pueden operar como un solo sistema de computación, una capacidad comparable a los arreglo de múltiples chips utilizados por Nvidia y AMD para cargas de trabajo de GPU.

AI250: Actualización de Eficiencia Generacional Futura

El AI250 está programado para su lanzamiento en 2027 y se describe como una entrega de un "salto generacional en eficiencia" que permitirá un consumo de energía significativamente menor en comparación con las soluciones actuales. Aunque no se divulgaron métricas de rendimiento específicas, Qualcomm posiciona el AI250 como una opción de próxima generación para la inferencia de IA a escala de centro de datos.

Asociación Estratégica con Humain

Humain, una empresa de IA propiedad del Fondo de Inversión Pública de Arabia Saudita, anunció planes para adoptar ambos chips AI200 y AI250 para la construcción de centros de datos de IA en todo el reino. Esta asociación subraya la intención de Qualcomm de penetrar en el mercado de IA empresarial y en la nube, y de proporcionar una alternativa a las ofertas dominantes de Nvidia.

Implicaciones del Mercado

Al extender su tecnología Hexagon desde los dispositivos móviles hasta el hardware de centro de datos de alto rendimiento, Qualcomm busca diversificar su cartera de productos y desafiar el liderazgo de Nvidia en la aceleración de IA. La colaboración con Humain también destaca un creciente interés de los fondos de riqueza soberana en establecer infraestructuras de IA nacionales.

#Qualcomm#AI200#AI250#Hexagon#Nvidia#chips de IA#inferencia de IA#Humain#Fondo de Inversión Pública#Arabia Saudita#centro de datos#hardware de IA

También disponible en: