CEO da Anthropic Ac!usa OpenAI de Mentir sobre Acordo com o Pentágono

Pontos principais
- O CEO da Anthropic, Dario Amodei, chama as alegações da OpenAI sobre o acordo com o Pentágono de "mentiras diretas" e "mendazes".
- A Anthropic se retirou de um contrato com agências de inteligência dos EUA devido a preocupações sobre a segurança da IA relacionada à vigilância e armas autônomas.
- Amodei critica o "teatro de segurança" da OpenAI e sua ênfase em aplacar os funcionários em vez de implementar salvaguardas reais.
- Ele questiona a cláusula vaga "todo uso legal" no acordo da OpenAI como uma possível brecha.
- O CEO da OpenAI, Sam Altman, admite que o anúncio do acordo com o Pentágono foi apressado e desleixado.
- O Financial Times relata que a Anthropic pode estar de volta às negociações com o Pentágono, mas os termos são indefinidos.
- A reação do público inclui um aumento na taxa de desinstalação do ChatGPT e um aumento nas classificações da App Store do Claude.
O CEO da Anthropic, Dario Amodei, enviou um memorando interno denunciando as declarações da OpenAI sobre seu novo acordo com o Pentágono como "mentiras diretas" e "mendazes". O memorando segue a retirada da Anthropic de um contrato separado com agências de inteligência dos EUA devido a preocupações sobre o uso de IA em vigilância em massa e armas autônomas.
Contexto
A Anthropic, criadora do chatbot de IA Claude, recentemente se retirou de um contrato proposto com agências de inteligência dos EUA. A empresa citou preocupações de segurança relacionadas ao uso de inteligência artificial para vigilância em massa de cidadãos nacionais e para armas autônomas totalmente autônomas.
Memorando Interno da Anthropic
Em resposta, o CEO da Anthropic, Dario Amodei, circulou um memorando interno que ataca duramente a mensagem pública da OpenAI sobre seu próprio acordo com o Pentágono. Amodei rotula as declarações da OpenAI como "mentiras diretas" e chama a mensagem geral de "mendaz". Ele argumenta que a promessa de "camada de segurança" da OpenAI e outras garantias equivalem a "teatro de segurança" e servem mais para aplacar os funcionários do que para proteger o público.
Critique ao Acordo da OpenAI
Amodei questiona uma cláusula no acordo da OpenAI que se refere a "todo uso legal", descrevendo a linguagem como uma área cinzenta que poderia permitir atividades questionáveis, como vigilância doméstica. Ele também sugere que a ênfase da OpenAI em "guardrails" adicionais não aborda de forma significativa os riscos de segurança subjacentes.
Resposta da OpenAI
O CEO da OpenAI, Sam Altman, mais tarde admitiu que o anúncio inicial do acordo com o Pentágono foi "apressado" e "desleixado", implicando que a empresa pode precisar refinar sua abordagem para contratos governamentais.
Potencial Reengajamento com o Pentágono
De acordo com um relatório do Financial Times, a Anthropic e seu modelo Claude podem estar explorando uma parceria renovada com o Pentágono, embora os detalhes de qualquer termo prospectivo permaneçam incertos.
Reação da Indústria e do Público
A disputa aumentou a vigilância das relações entre as empresas de IA e o militar. Nos dias seguintes aos anúncios, a taxa de desinstalação do ChatGPT aumentou fortemente, enquanto o Claude experimentou um aumento nas classificações da App Store, refletindo uma opinião pública mista sobre as implicações éticas do uso de IA em contextos de defesa.