Anthropic Recusa Condições do Contrato de IA do Pentágono, Citando Preocupações Éticas

Anthropic Rejects Pentagon's AI Contract Terms, Citing Ethical Concerns

Pontos principais

  • A Anthropic recusa condições do contrato do Pentágono que permitiriam "qualquer uso legal" de seus modelos de IA.
  • Os usos propostos incluem vigilância em massa de americanos e armas letais totalmente autônomas.
  • O CTO do Pentágono, Emil Michael, alerta que a Anthropic poderia ser rotulada como "risco na cadeia de suprimentos" se não cumprir.
  • OpenAI e xAI aceitaram os novos termos, diferentemente da Anthropic.
  • O CEO da Anthropic, Dario Amodei, enfatiza preocupações éticas, afirmando que a empresa não pode, em boa consciência, cumprir.

A Anthropic está recusando as novas condições do contrato do Pentágono que relaxariam as salvaguardas de seus modelos de inteligência artificial. Os termos propostos permitiriam "qualquer uso legal", incluindo vigilância em massa de americanos e armas letais totalmente autônomas. O CTO do Pentágono, Emil Michael, sugeriu rotular a Anthropic como "risco na cadeia de suprimentos" se não cumprir. Embora os rivais OpenAI e xAI tenham aceitado os termos, o CEO da Anthropic, Dario Amodei, afirma que as ameaças não mudam a posição da empresa, enfatizando que não pode, em boa consciência, atender ao pedido.

Contexto

O Departamento de Defesa dos EUA busca ampliar os usos permitidos de modelos de inteligência artificial fornecidos por empresas privadas. A nova linguagem do contrato permitiria "qualquer uso legal", uma frase que poderia abranger vigilância em massa de cidadãos americanos e o deploy de armas letais totalmente autônomas.

Posição da Anthropic

A Anthropic, uma empresa de pesquisa de IA proeminente, recusou publicamente adotar os termos expandidos do Pentágono. A empresa argumenta que relaxar suas salvaguardas conflitaria com seus padrões éticos. O CEO Dario Amodei afirmou que "ameaças não mudam nossa posição: não podemos, em boa consciência, atender ao pedido".

Resposta do Governo

O CTO do Pentágono, Emil Michael, indicou que a Anthropic poderia ser designada como "risco na cadeia de suprimentos" se continuar resistindo às mudanças no contrato. A etiqueta é normalmente reservada para entidades consideradas ameaças à segurança nacional.

Reação da Indústria

De acordo com relatos, os concorrentes da Anthropic, OpenAI e xAI, aceitaram os termos revisados do Pentágono. Esse contraste destaca uma divisão dentro da indústria de IA sobre o equilíbrio entre contratos governamentais e restrições éticas.

Implicações

O impasse levanta questões sobre como as empresas de IA navegarão pelas demandas do governo que podem conflitar com suas políticas internas. Isso também destaca preocupações mais amplas sobre o uso de tecnologias de IA avançadas em vigilância e sistemas de armas autônomas.

Perspectiva

A Anthropic permanece firme em sua recusa, sugerindo que as negociações podem continuar sem resolução. A pressão do Pentágono por aplicações mais amplas de IA e as respostas divergentes da indústria provavelmente moldarão discussões de política futuras sobre o uso responsável de inteligência artificial na defesa.

#inteligência artificial#contratação de defesa#IA ética#Pentágono#Anthropic#OpenAI#xAI#IA militar#vigilância#armas autônomas#política tecnológica

Também disponível em: