Más de 800 figuras públicas exigen prohibición del desarrollo de superinteligencia artificial

Puntos clave
- Más de 800 figuras públicas, incluyendo a Steve Wozniak y el príncipe Harry, firmaron un comunicado exigiendo una prohibición en el desarrollo de superinteligencia artificial.
- El llamado fue emitido por el Instituto del Futuro de la Vida, solicitando una prohibición hasta que exista un consenso científico amplio sobre la seguridad y el apoyo público.
- Los firmantes incluyen una variedad de sectores, con nombres como Geoffrey Hinton, Steve Bannon, Mike Mullen y Will.i.am, entre otros.
- El grupo advierte que el progreso en inteligencia artificial está superando la comprensión pública y plantea riesgos graves para la humanidad.
- Los ejecutivos líderes en inteligencia artificial, como Mark Zuckerberg, Elon Musk y Sam Altman, han expresado optimismo sobre la superinteligencia pero no firmaron el comunicado.
- Con anterioridad, más de 200 investigadores y funcionarios pidieron una "línea roja" sobre los riesgos de la inteligencia artificial relacionados con el desempleo, el cambio climático y las preocupaciones sobre derechos humanos.
Más de 800 figuras públicas, incluyendo al pionero tecnológico Steve Wozniak, el príncipe Harry, investigadores de inteligencia artificial, ex líderes militares y directivos ejecutivos, han firmado un comunicado instando a una prohibición de trabajos que puedan llevar al desarrollo de superinteligencia artificial. El llamado, emitido por el Instituto del Futuro de la Vida, solicita una prohibición hasta que exista un consenso científico amplio de que dichos sistemas puedan ser construidos de manera segura, controlable y con un fuerte apoyo público.
Amplia coalición pide una moratoria en la superinteligencia artificial
En un esfuerzo coordinado reportado por el Financial Times, más de 800 figuras públicas han firmado un comunicado exigiendo una prohibición en el desarrollo de superinteligencia artificial. Los firmantes incluyen una mezcla diversa de individuos de tecnología, entretenimiento, militares y políticos. Entre los nombres mencionados se encuentran Steve Wozniak, el príncipe Harry, el investigador de inteligencia artificial y laureado con el Nobel Geoffrey Hinton, el ex asesor de Trump Steve Bannon, el ex presidente del Estado Mayor Conjunto Mike Mullen y el rapero Will.i.am.
El llamado proviene del Instituto del Futuro de la Vida, una organización que ha advertido que los avances en inteligencia artificial están avanzando más rápido de lo que el público puede comprender. El director ejecutivo Anthony Aguirre enfatizó que el público no ha sido consultado sobre si la trayectoria actual del desarrollo de la inteligencia artificial se alinea con los deseos de la sociedad.
Exigencias específicas y razonamiento
El comunicado solicita una prohibición en la creación de sistemas superinteligentes hasta que un consenso científico amplio confirme que dicha tecnología puede ser construida de manera segura, controlable y con un fuerte apoyo público. Los firmantes argumentan que la inteligencia artificial general (IAG) —la capacidad de las máquinas para razonar y realizar tareas a nivel humano— y la superinteligencia —el rendimiento que supera incluso a los mejores expertos humanos— representan riesgos graves para la humanidad si no se gestionan adecuadamente.
Contexto industrial y reacciones
A pesar del llamado a una moratoria, las principales empresas de inteligencia artificial siguen invirtiendo fuertemente en nuevos modelos y la infraestructura necesaria para ejecutarlos. El comunicado señala que empresas como OpenAI están invirtiendo miles de millones en investigación y centros de datos. Líderes tecnológicos de alto perfil han expresado optimismo sobre la cronología de la superinteligencia: el CEO de Meta Mark Zuckerberg la describió como "a la vista", el CEO de X (antes Twitter) Elon Musk dijo que "está sucediendo en tiempo real", y el CEO de OpenAI Sam Altman espera que pueda llegar para 2030 como muy tarde. Ninguno de estos líderes firmó el comunicado.
Llamados paralelos a la regulación
La iniciativa sigue a llamados anteriores de la comunidad de inteligencia artificial. Más de 200 investigadores y funcionarios públicos, incluyendo a diez ganadores del Premio Nobel, lanzaron un llamado urgente para una "línea roja" contra los riesgos de la inteligencia artificial, centrándose en preocupaciones inmediatas como el desempleo masivo, los impactos climáticos y los abusos de derechos humanos. Si bien esa carta abordaba desafíos existentes en lugar de la superinteligencia, ambos esfuerzos subrayan una creciente inquietud sobre el ritmo y la dirección del desarrollo de la inteligencia artificial.
Implicaciones y próximos pasos
La demanda de la coalición resalta una brecha cada vez mayor entre los rápidos avances en inteligencia artificial y la preparación de la sociedad para abordar sus consecuencias. Al instar a una pausa hasta que los marcos de seguridad y gobernanza se solidifiquen, los firmantes buscan asegurarse de que los futuros sistemas de inteligencia artificial se alineen con los valores públicos y no representen amenazas no controladas. El comunicado agrega presión sobre los responsables de las políticas, los líderes industriales y el público en general para que participen en un diálogo transparente sobre el futuro de las máquinas inteligentes.