Pentágono amenaza con cancelar trato con Anthropic por uso de IA en armas autónomas y vigilancia

Puntos clave
- El Pentágono solicita a sus socios de IA que permitan el uso de sus modelos para todos los fines legales.
- Anthropic advierte que sus modelos Claude podrían ser utilizados en armas autónomas y vigilancia masiva.
- El departamento ha amenazado con terminar un contrato de $200 millones con Anthropic debido al conflicto.
- Anthropic afirma que no ha discutido el uso de Claude en ninguna operación específica.
- Una empresa de IA ya ha aceptado otorgar al Pentágono acceso completo a su modelo; otras muestran flexibilidad.
- Expertos en seguridad y el CEO de Anthropic llaman a una regulación más fuerte de la IA en contextos militares.
Un conflicto ha surgido entre el Pentágono y la empresa de IA Anthropic después de que el departamento de defensa solicitó a sus contratistas permitir el uso sin restricciones de sus modelos para todos los fines legales. Anthropic advirtió que sus modelos Claude podrían ser aplicados en armas autónomas completamente y vigilancia masiva de carácter doméstico, lo que llevó al Pentágono a considerar la terminación de su contrato de $200 millones. El enfrentamiento refleja preocupaciones más amplias entre expertos en seguridad y formuladores de políticas sobre los límites éticos de la IA en operaciones militares.
Antecedentes del conflicto entre el Pentágono y Anthropic
El Departamento de Defensa de los Estados Unidos recientemente emitió una solicitud a sus socios de IA - Anthropic, OpenAI, Google y xAI - para que sus modelos estuvieran disponibles para "todos los fines legales". Esta solicitud amplia ha generado un desacuerdo tajante con Anthropic, el creador de la familia de modelos de lenguaje Claude.
Preocupaciones expresadas por Anthropic
Anthropic ha expresado públicamente su aprehensión de que sus modelos Claude podrían ser utilizados en "armas autónomas completamente y vigilancia masiva de carácter doméstico". La política de uso de la empresa con el Pentágono está bajo revisión, específicamente para abordar estos límites estrictos. Un portavoz de Anthropic aclaró que la empresa no ha discutido el uso de Claude para ninguna operación militar en particular, aunque el Wall Street Journal informó que Claude se empleó en una operación de los Estados Unidos para capturar al expresidente venezolano Nicolás Maduro.
Respuesta del Pentágono
El portavoz principal del Pentágono, Sean Parnell, enfatizó la necesidad de que los socios ayuden a los combatientes a tener éxito en cualquier conflicto, enmarcando la solicitud como esencial para la seguridad nacional. En respuesta a las reservas de Anthropic, el Pentágono señaló que podría terminar el contrato existente de $200 millones si el proveedor de IA no acepta la cláusula de uso sin restricciones.
Contexto de la industria
Según un asesor anónimo de la administración Trump, una de las empresas de IA ya ha aceptado otorgar al Pentágono acceso completo a su modelo, mientras que las otras dos muestran flexibilidad. El desacuerdo con Anthropic resalta una creciente brecha entre el establecimiento de defensa y varias empresas de IA líderes sobre el alcance permitido de las aplicaciones de IA en la guerra.
Llamadas a la regulación
Expertos en seguridad, formuladores de políticas y el CEO de Anthropic, Dario Amodei, han abogado por una regulación más estricta del desarrollo de IA, especialmente en lo que respecta a sistemas de armas y otras tecnologías militares. El enfrentamiento actual subraya la tensión entre la innovación rápida de IA y la necesidad de salvaguardias éticas.