Centenas de Figuras Proeminentes Pedem Proibição do Desenvolvimento de Superinteligência Artificial

AI Superintelligence Prohibition Called for by Hundreds of High-Profile Figures

Pontos principais

  • Mais de 700 indivíduos de alto perfil assinam uma declaração exigindo uma paralisação no desenvolvimento de superinteligência artificial.
  • Os signatários incluem pesquisadores líderes em inteligência artificial, ex-políticos e entretenedores bem conhecidos.
  • O pedido alerta sobre ameaças à liberdade, segurança nacional e sobrevivência humana sem supervisão adequada.
  • Uma pesquisa do Instituto do Futuro da Vida mostra que apenas 5% apoiam o progresso rápido e não regulamentado da inteligência artificial.
  • 64% dos respondentes dizem que a superinteligência artificial deve esperar por segurança comprovada, e 73% querem regulamentação forte.
  • O número atual de assinaturas no pedido está em 27.700.
  • Os apelos ecoam alertas anteriores de líderes tecnológicos como Elon Musk sobre os perigos da inteligência artificial sem controle.

Mais de 700 indivíduos de alto perfil, incluindo pioneiros em inteligência artificial e celebridades, assinaram uma declaração exigindo uma paralisação na criação de superinteligência artificial até que possa ser comprovada sua segurança. O pedido alerta que a inteligência artificial sem controle pode ameaçar a liberdade, a segurança nacional e até mesmo a sobrevivência humana. Uma pesquisa recente mostra um claro desejo público por regulamentação mais rigorosa, com a maioria se opondo ao progresso rápido e não regulamentado da inteligência artificial.

Amplio Apelo por uma Moratória na Superinteligência Artificial

Mais de 700 figuras proeminentes públicas assinaram uma declaração urgindo uma proibição no desenvolvimento de superinteligência artificial até que medidas de segurança robustas e consenso público estejam em vigor. Os signatários abrangem uma variedade de backgrounds, desde pesquisadores líderes em inteligência artificial — frequentemente referidos como os "pais da inteligência artificial" — até ex-políticos e entretenedores bem conhecidos. Sua mensagem coletiva enfatiza que a criação de sistemas de inteligência artificial capazes de superar os humanos em todos os aspectos cognitivos, especialmente sem supervisão adequada, apresenta riscos sérios.

O pedido destaca várias preocupações centrais: perda potencial de liberdades individuais, ameaças aumentadas à segurança nacional e o perigo existencial da extinção humana. Essas preocupações ecoam alertas anteriores de líderes tecnológicos, como Elon Musk, que previamente comparou a corrida em direção à inteligência artificial avançada a "invocar um demônio". Os signatários argumentam que, sem salvaguardas claras e aplicáveis, o ritmo acelerado do desenvolvimento de inteligência artificial pode ultrapassar a capacidade da humanidade de controlá-lo.

A Opinião Pública Reflete o Apelo por Regulamentação

Uma pesquisa nacional recente realizada pelo Instituto do Futuro da Vida revela que a opinião pública alinha-se estreitamente com a posição do pedido. Apenas uma pequena fração — 5% — dos respondentes apoia a abordagem atual de avanço rápido e não regulamentado da inteligência artificial. Em contraste, uma maioria substancial — 64% — acredita que a superinteligência artificial não deve ser buscada até que sua segurança possa ser assegurada, e 73% exigem estruturas regulatórias robustas para governar tecnologias de inteligência artificial avançadas.

Esses números sublinham uma demanda crescente por transparência e supervisão no setor de inteligência artificial, sugerindo que tanto especialistas quanto o público em geral estão cautelosos com o progresso não controlado.

Momento Crescente e Continuação da Campanha de Assinaturas

O momento do pedido continua a crescer, com o número atual de assinaturas relatado em 27.700. Essa lista expandida de apoiadores reflete uma ansiedade coletiva crescente sobre a trajetória da pesquisa de inteligência artificial e um desejo por um avanço deliberado e cauteloso. O apelo dos signatários para pausar o desenvolvimento de superinteligência visa fomentar uma abordagem mais medida, garantindo que futuros sistemas de inteligência artificial possam ser integrados de forma segura e responsável à sociedade.

Em resumo, a coalizão de cientistas, políticos e figuras culturais está pedindo uma paralisação temporária na busca por superinteligência artificial até que protocolos de segurança abrangentes e um amplo consenso público sejam assegurados. Seu apelo é reforçado por pesquisas de opinião pública que revelam uma preocupação generalizada sobre a evolução rápida e não regulamentada da inteligência artificial, destacando a necessidade urgente de uma governança e supervisão mais fortes.

#Inteligência Artificial#Superinteligência#Segurança da IA#Elon Musk#Instituto do Futuro da Vida#Regulamentação da IA#Opinião Pública#Política Tecnológica#Pesquisadores de IA#Ética da IA

Também disponível em: