Cientos de Figuras Destacadas Piden una Prohibición al Desarrollo de la Superinteligencia Artificial

Puntos clave
- Más de 700 individuos de alto perfil firman una declaración exigiendo una pausa en el desarrollo de la superinteligencia artificial.
- Los firmantes incluyen investigadores líderes en inteligencia artificial, ex políticos y conocidos entretenedores.
- La petición advierte sobre amenazas a la libertad, la seguridad nacional y la supervivencia humana sin una supervisión adecuada.
- Una encuesta del Instituto del Futuro de la Vida muestra que solo el 5% apoya el progreso rápido y sin regulación de la inteligencia artificial.
- El 64% de los encuestados dice que la superinteligencia artificial debería esperar a que se pruebe su seguridad, y el 73% quiere una regulación fuerte.
- El recuento actual de firmas en la petición es de 27,700.
- Las llamadas hacen eco de advertencias anteriores de líderes tecnológicos como Elon Musk sobre los peligros de la inteligencia artificial sin control.
Más de 700 individuos de alto perfil, incluyendo pioneros en inteligencia artificial y celebridades, han firmado una declaración exigiendo una pausa en la creación de superinteligencia artificial hasta que se pueda demostrar que es segura. La petición advierte que la inteligencia artificial sin control podría amenazar la libertad, la seguridad nacional y incluso la supervivencia humana. Una encuesta reciente muestra un deseo claro del público por una regulación más estricta, con una mayoría en oposición al progreso rápido y sin regulación de la inteligencia artificial. El movimiento refleja una creciente inquietud sobre el ritmo de los avances en inteligencia artificial y pide una supervisión más fuerte antes de seguir adelante con el desarrollo.
Una Amplia Llamada a una Moratoria sobre la Superinteligencia Artificial
Más de 700 figuras públicas destacadas han firmado una declaración instando a una prohibición sobre el desarrollo de la superinteligencia artificial hasta que se establezcan medidas de seguridad robustas y un consenso público. Los firmantes abarcan una amplia gama de antecedentes, desde investigadores líderes en inteligencia artificial—a menudo llamados los "padres de la inteligencia artificial"—hasta ex políticos y conocidos entretenedores. Su mensaje colectivo enfatiza que la creación de sistemas de inteligencia artificial capaces de superar a los humanos en casi todas las tareas cognitivas, especialmente sin una supervisión adecuada, plantea riesgos serios.
La petición destaca varias preocupaciones fundamentales: la posible pérdida de libertades individuales, el aumento de las amenazas a la seguridad nacional y el peligro existencial de la extinción humana. Estas preocupaciones hacen eco de advertencias anteriores de líderes tecnológicos como Elon Musk, quien previamente comparó la carrera hacia la inteligencia artificial avanzada con "invocar a un demonio". Los firmantes argumentan que sin salvaguardias claras y ejecutables, el ritmo rápido del desarrollo de la inteligencia artificial podría superar la capacidad de la humanidad para controlarlo.
La Opinión Pública Refleja la Llamada a la Regulación
Una encuesta nacional reciente realizada por el Instituto del Futuro de la Vida revela que la opinión pública se alinea estrechamente con la postura de la petición. Solo una pequeña fracción—5%—de los encuestados apoya el enfoque actual de avance rápido y sin regulación de la inteligencia artificial. En contraste, una mayoría sustancial—64%—cree que la superinteligencia artificial no debería perseguirse hasta que su seguridad pueda ser asegurada, y el 73% exige marcos regulatorios robustos para gobernar las tecnologías de inteligencia artificial avanzada.
Estas cifras subrayan una creciente demanda de transparencia y supervisión en el sector de la inteligencia artificial, sugiriendo que tanto los expertos como el público en general están precavidos ante el progreso sin control.
Un Momentum Creciente y una Campaña de Firma en Curso
El momentum de la petición sigue creciendo, con el recuento actual de firmas reportado en 27,700. Esta lista expandida de partidarios refleja una creciente ansiedad colectiva sobre la trayectoria de la investigación en inteligencia artificial y un deseo de avance deliberado y cauteloso. La llamada de los firmantes a pausar el desarrollo de la superinteligencia tiene como objetivo fomentar un enfoque más mesurado, asegurando que los futuros sistemas de inteligencia artificial puedan integrarse de manera segura y responsable en la sociedad.
En resumen, la coalición de científicos, políticos y figuras culturales está instando a una pausa temporal en la búsqueda de la superinteligencia artificial hasta que se establezcan protocolos de seguridad comprehensivos y un acuerdo público amplio. Su llamada está respaldada por encuestas públicas que revelan una preocupación generalizada sobre la evolución rápida y sin regulación de la inteligencia artificial, destacando la necesidad urgente de una gobernanza y supervisión más fuertes.