Anthropic Rechaza los Términos del Contrato de Inteligencia Artificial del Pentágono, Citando Preocupaciones Éticas

Anthropic Rejects Pentagon's AI Contract Terms, Citing Ethical Concerns

Puntos clave

  • Anthropic rechaza los términos del contrato del Pentágono que permitirían "cualquier uso legal" de sus modelos de inteligencia artificial.
  • Los usos propuestos incluyen la vigilancia masiva de estadounidenses y armas letales completamente autónomas.
  • El director de tecnología del Pentágono, Emil Michael, advierte que Anthropic podría ser etiquetada como "riesgo de cadena de suministro" si no cumple.
  • OpenAI y xAI han aceptado aparentemente los nuevos términos, a diferencia de Anthropic.
  • El CEO de Anthropic, Dario Amodei, enfatiza las preocupaciones éticas, declarando que la empresa no puede en buena conciencia cumplir.

Anthropic se niega a aceptar las nuevas condiciones del contrato del Pentágono que relajarían las salvaguardas de sus modelos de inteligencia artificial. Los términos propuestos permitirían "cualquier uso legal", incluyendo la vigilancia masiva de estadounidenses y armas letales completamente autónomas. El director de tecnología del Pentágono, Emil Michael, ha sugerido etiquetar a Anthropic como "riesgo de cadena de suministro" si no cumple. Mientras que los rivales OpenAI y xAI han aceptado aparentemente los términos, el CEO de Anthropic, Dario Amodei, dice que las amenazas no cambian la postura de la empresa, enfatizando que no puede en buena conciencia acceder a la solicitud.

Antecedentes

El Departamento de Defensa de los Estados Unidos ha buscado ampliar los usos permitidos de los modelos de inteligencia artificial suministrados por empresas privadas. El nuevo lenguaje del contrato permitiría "cualquier uso legal", una frase que podría abarcar la vigilancia masiva de ciudadanos estadounidenses y el despliegue de armas letales completamente autónomas.

Posición de Anthropic

Anthropic, una destacada empresa de investigación de inteligencia artificial, ha rechazado públicamente los términos ampliados del Pentágono. La empresa argumenta que relajar sus salvaguardas conflictuaría con sus estándares éticos. El CEO Dario Amodei declaró que "las amenazas no cambian nuestra postura: no podemos en buena conciencia acceder a su solicitud".

Respuesta del Gobierno

El director de tecnología del Pentágono, Emil Michael, ha indicado que Anthropic podría ser designada como "riesgo de cadena de suministro" si continúa resistiendo los cambios en el contrato. La etiqueta se reserva típicamente para entidades consideradas amenazas para la seguridad nacional.

Reacción de la Industria

Según informes, los competidores de Anthropic, OpenAI y xAI, han aceptado los términos revisados del Pentágono. Este contraste destaca una división dentro de la industria de la inteligencia artificial sobre el equilibrio entre los contratos gubernamentales y las restricciones éticas.

Implicaciones

El enfrentamiento plantea preguntas sobre cómo las empresas de inteligencia artificial navegarán las demandas gubernamentales que pueden conflictuar con sus políticas internas. También subraya preocupaciones más amplias sobre el uso de tecnologías de inteligencia artificial avanzadas en la vigilancia y los sistemas de armas autónomas.

Perspectiva

Anthropic permanece firme en su rechazo, sugiriendo que las negociaciones pueden continuar sin resolución. La presión del Pentágono por aplicaciones más amplias de la inteligencia artificial y las respuestas divergentes de la industria probablemente darán forma a las discusiones de política futuras sobre el uso responsable de la inteligencia artificial en la defensa.

#inteligencia artificial#contratación de defensa#inteligencia artificial ética#Pentágono#Anthropic#OpenAI#xAI#inteligencia artificial militar#vigilancia#armas autónomas#política tecnológica

También disponible en: