Mais de 800 Figuras Públicas Pedem Proibição do Desenvolvimento de Superinteligência Artificial

Pontos principais
- Mais de 800 figuras públicas, incluindo Steve Wozniak e Príncipe Harry, assinaram uma declaração pedindo uma proibição ao desenvolvimento de superinteligência artificial.
- O apelo foi emitido pelo Future of Life Institute, pedindo uma proibição até que haja um consenso científico amplo sobre segurança e apoio público.
- Os signatários abrangem setores diversificados, com nomes como Geoffrey Hinton, Steve Bannon, Mike Mullen e Will.i.am, entre outros.
- O grupo alerta que o progresso da IA está ultrapassando a compreensão pública e representa riscos graves para a humanidade.
- Líderes executivos de IA, como Mark Zuckerberg, Elon Musk e Sam Altman, expressaram otimismo sobre a superinteligência, mas não assinaram a declaração.
- Anteriormente, mais de 200 pesquisadores e funcionários públicos pediram uma "linha vermelha" sobre os riscos da IA relacionados ao desemprego, mudanças climáticas e preocupações com direitos humanos.
Mais de 800 figuras públicas, incluindo o pioneer da tecnologia Steve Wozniak, o Príncipe Harry, pesquisadores de IA, ex-líderes militares e CEOs, assinaram uma declaração pedindo uma proibição ao trabalho que possa levar à superinteligência artificial. O apelo, emitido pelo Future of Life Institute, pede uma proibição até que haja um consenso científico amplo de que tais sistemas possam ser construídos de forma segura, controlável e com forte apoio público.
Coalizão Ampliada Pedem Moratória sobre Superinteligência Artificial
Em um esforço coordenado reportado pelo Financial Times, mais de 800 figuras públicas assinaram uma declaração pedindo uma proibição ao desenvolvimento de superinteligência artificial. Os signatários incluem uma mistura diversa de indivíduos de tecnologia, entretenimento, militares e políticos. Nomes notáveis mencionados são Steve Wozniak, Príncipe Harry, pesquisador de IA e laureado com o Nobel Geoffrey Hinton, ex-auxiliar de Trump Steve Bannon, ex-presidente do Joint Chiefs of Staff Mike Mullen e o rapper Will.i.am.
O apelo origina-se do Future of Life Institute, uma organização que alertou que os avanços da IA estão se movendo mais rápido do que o público pode compreender. O diretor executivo Anthony Aguirre enfatizou que o público não foi perguntado se a trajetória atual do desenvolvimento da IA está alinhada com os desejos da sociedade.
Exigências Específicas e Racional
A declaração pede uma proibição à criação de sistemas superinteligentes até que um consenso científico amplo confirme que tal tecnologia possa ser construída de forma segura, controlável e com forte apoio público. Os signatários argumentam que a inteligência artificial geral (IAG) — a capacidade das máquinas de raciocinar e realizar tarefas em nível humano — e a superinteligência — desempenho que supera até os melhores especialistas humanos — representam riscos graves para a humanidade se não forem gerenciados adequadamente.
Contexto da Indústria e Reações
Apesar do apelo por uma moratória, as principais empresas de IA continuam a investir pesadamente em novos modelos e na infraestrutura necessária para executá-los. A declaração observa que empresas como a OpenAI estão investindo bilhões em pesquisas e centros de dados. Líderes de tecnologia de alto perfil expressaram otimismo sobre a linha do tempo para a superinteligência: o CEO da Meta, Mark Zuckerberg, descreveu como "em vista", o CEO da X (ex-Twitter), Elon Musk, disse que "está acontecendo em tempo real", e o CEO da OpenAI, Sam Altman, espera que possa chegar até 2030 no máximo. Nenhum desses líderes assinou a declaração.
Chamadas Paralelas para Regulação
A iniciativa segue apelos anteriores da comunidade de IA. Mais de 200 pesquisadores e funcionários públicos, incluindo dez laureados com o Nobel, lançaram um apelo urgente por uma "linha vermelha" contra os riscos da IA, focando em preocupações imediatas como desemprego em massa, impactos climáticos e abusos de direitos humanos. Embora essa carta tenha abordado desafios existentes em vez de superinteligência, ambos os esforços destacam uma crescente inquietude sobre o ritmo e a direção do desenvolvimento da IA.
Implicações e Próximos Passos
A exigência da coalizão destaca uma lacuna crescente entre os avanços rápidos da IA e a prontidão da sociedade para lidar com suas consequências. Ao pedir uma pausa até que os quadros de segurança e governança sejam solidificados, os signatários visam garantir que os futuros sistemas de IA estejam alinhados com os valores públicos e não representem ameaças descontroladas. A declaração adiciona pressão sobre os formuladores de políticas, líderes da indústria e o público em geral para engajar-se em um diálogo transparente sobre o futuro das máquinas inteligentes.