El AI en dispositivos gana impulso a medida que las empresas priorizan la velocidad, la privacidad y el ahorro de costos

Puntos clave
- El AI en dispositivos entrega respuestas más rápidas que los modelos basados en la nube, fundamental para tareas en tiempo real.
- El procesamiento local mejora la privacidad al mantener los datos personales en el dispositivo del usuario.
- Eliminar la computación en la nube reduce los costos continuos para desarrolladores y usuarios finales.
- Apple, Google y Qualcomm están integrando modelos de AI especializados y chips en dispositivos de consumo.
- Los modelos actuales en dispositivos excelan en tareas como la clasificación de imágenes dentro de ~100 ms, pero las funciones más complejas aún dependen de la descarga en la nube.
- La investigación de Carnegie Mellon destaca la computación en el borde como un camino hacia un AI más rápido y privado.
- Los avances futuros en hardware y algoritmos buscan habilitar capacidades de AI en dispositivo más amplias dentro de los próximos cinco años.
Los líderes tecnológicos están trasladando el procesamiento de inteligencia artificial de los centros de datos en la nube a los dispositivos de los usuarios. El AI en dispositivos promete tiempos de respuesta más rápidos, una protección de la privacidad más fuerte y costos continuos más bajos al eliminar la necesidad de computación en la nube constante. Empresas como Apple, Google y Qualcomm están desplegando modelos especializados y hardware personalizado para manejar tareas como el reconocimiento facial, la resumen de lenguaje y la asistencia contextual de forma local. Si bien los modelos actuales excelan en tareas rápidas, las operaciones más complejas aún dependen de la descarga en la nube. Los investigadores de Carnegie Mellon destacan los trade-offs y anticipan avances rápidos en ambos hardware y algoritmos en los próximos años.
Por qué el AI en dispositivos está en ascenso
Los desarrolladores y fabricantes están trasladando cada vez más las cargas de trabajo de inteligencia artificial de los grandes centros de datos corporativos a dispositivos personales como teléfonos inteligentes, laptops, relojes inteligentes y dispositivos wearables emergentes. El cambio está impulsado por tres beneficios principales: velocidad, privacidad y eficiencia de costos. Cuando el AI se ejecuta de forma local, las respuestas pueden entregarse en fracciones de un segundo, eliminando la latencia que de otra manera obstaculizaría aplicaciones en tiempo real como la detección de objetos o la asistencia de navegación.
Velocidad y rendimiento en tiempo real
La velocidad es fundamental para tareas que no pueden tolerar retrasos. Por ejemplo, un sistema de AI que alerta a un usuario sobre un obstáculo en su camino debe responder de inmediato. Los modelos en dispositivos, que se ejecutan en chips especializados, pueden entregar resultados precisos dentro de unos 100 milisegundos para la clasificación de imágenes, un nivel de rendimiento que era inalcanzable solo cinco años atrás. Las tareas más exigentes, como la detección de objetos, la segmentación instantánea, el reconocimiento de actividades y el seguimiento de objetos, aún requieren asistencia en la nube, pero la tendencia general apunta hacia un procesamiento local más rápido y capaz a medida que mejora el hardware.
Ventajas de privacidad
Procesar datos en el dispositivo mantiene la información personal, como preferencias, ubicación e historial de navegación, bajo el control del usuario. Cuando los datos permanecen cifrados en un teléfono o laptop, están menos expuestos a las vulnerabilidades de la transmisión por internet y el almacenamiento de terceros. Empresas como Apple emplean la "Computación en la nube privada", enviando solo los datos mínimos necesarios para una tarea a servidores de propiedad de Apple y asegurando que no se almacenan ni se acceden más allá de la computación inmediata.
Ahorro de costos para desarrolladores y usuarios
Ejecutar modelos de AI de forma local elimina las tarifas continuas de servicios en la nube para la potencia de computación y la energía. Los desarrolladores pequeños pueden escalar aplicaciones sin incurrir en costos de infraestructura masivos. Por ejemplo, una aplicación de mezcla de ruido que utiliza un modelo en dispositivo para seleccionar y ajustar sonidos existentes incurre en gastos adicionales prácticamente nulos a medida que crece su base de usuarios.
Innovaciones en hardware y modelos
Las empresas líderes están integrando hardware y modelos optimizados para AI en sus dispositivos. La "Inteligencia de Apple" aprovecha un modelo en dispositivo de 3 mil millones de parámetros para tareas como resumir mensajes y reconocimiento visual. Los teléfonos Pixel de Google ejecutan el modelo Gemini Nano en un chip Tensor G5 personalizado, alimentando funciones como Magic Cue, que presenta información relevante de correos electrónicos y mensajes sin una búsqueda manual. El jefe de AI generativa de Qualcomm, Vinesh Sukumar, enfatiza el desafío de ajustar AI sofisticado en el espacio limitado de los dispositivos wearables, señalando que la descarga en la nube sigue siendo necesaria para las operaciones más intensivas en términos de computación.
Perspectiva académica
El profesor de Carnegie Mellon, Mahadev Satyanarayanan (conocido como Satya), ha investigado durante mucho tiempo la computación en el borde, abogando por el procesamiento lo más cerca posible del usuario, reflejando cómo el cerebro humano opera sin dependencia de la nube externa. Reconoce que, si bien la naturaleza tardó miles de millones de años en evolucionar hacia tal eficiencia, los ingenieros buscan acelerar el progreso dentro de una década mediante el avance de ambos hardware y algoritmos.
Perspectiva futura
Los expertos anticipan que, dentro de los próximos cinco años, las mejoras en el hardware de AI móvil y la eficiencia algorítmica permitirán que se ejecuten tareas más complejas de forma local. Las aplicaciones potenciales incluyen alertas de navegación en tiempo real, asistencia de conversación contextual y recomendaciones personalizadas que respetan la privacidad del usuario. Si bien la capacidad completa en dispositivo para cada función de AI no es aún una realidad, el impulso hacia el AI centrado en el borde sugiere un futuro en el que la mayoría de las características inteligentes operen directamente en los dispositivos de los usuarios.