Ingenieros de OpenAI y Google apoyan la demanda de Anthropic contra el Pentágono

OpenAI and Google Engineers Back Anthropic’s Lawsuit Against Pentagon

Puntos clave

  • Anthropic demandó al Pentágono después de ser etiquetado como un riesgo en la cadena de suministro por negarse a permitir la vigilancia masiva o las armas letales autónomas.
  • Casi 40 ingenieros y investigadores de OpenAI y Google presentaron un breve amicus en apoyo a Anthropic.
  • El breve argumenta que la designación de riesgo es una represalia impropera que perjudica el interés público.
  • Los autores advierten que la integración de datos fragmentados mediante inteligencia artificial podría crear un aparato de vigilancia nacional en tiempo real.
  • Las armas autónomas se describen como poco fiables en condiciones novas y propensas a la alucinación.
  • El breve pide salvaguardias técnicas o restricciones de uso para mantener a los humanos en el bucle de decisión.
  • Los firmantes enfatizan una convicción compartida de que los riesgos de la inteligencia artificial requieren salvaguardias a pesar de las diferencias políticas.

Anthropic demandó al Departamento de Defensa después de ser etiquetado como un riesgo en la cadena de suministro por negarse a permitir la vigilancia masiva nacional y las armas letales autónomas. Horas después, casi 40 ingenieros, investigadores y científicos de OpenAI y Google presentaron un breve amicus en apoyo a Anthropic, advirtiendo que la designación amenaza el interés público y que las dos líneas rojas reflejan riesgos genuinos.

El desafío legal de Anthropic

Anthropic presentó una demanda contra el Departamento de Defensa después de que la agencia designara a la empresa como un riesgo en la cadena de suministro. La designación, típicamente reservada para empresas extranjeras consideradas una amenaza a la seguridad nacional, se aplicó porque Anthropic se negó a relajar dos líneas rojas que prohíben el uso de su tecnología para la vigilancia masiva nacional y las armas letales autónomas.

Respuesta de la industria

Dentro de horas de la presentación, casi 40 empleados de OpenAI y Google, incluidas figuras senior, presentaron un breve amicus en apoyo al caso de Anthropic. Los firmantes se describieron a sí mismos como ingenieros, investigadores, científicos y otros profesionales empleados en laboratorios de inteligencia artificial de vanguardia en EE. UU.

El breve argumenta que la etiqueta de riesgo en la cadena de suministro es una represalia impropera que perjudica el interés público. Destaca que las líneas rojas de Anthropic están arraigadas en preocupaciones reales que requieren una respuesta.

Riesgos de la vigilancia masiva nacional

El breve señala que, si bien los datos de los ciudadanos estadounidenses existen en muchas formas fragmentadas - cámaras de vigilancia, datos de geolocalización, publicaciones en redes sociales, transacciones financieras -, una capa de inteligencia artificial que unifique estos flujos podría crear un aparato de vigilancia nacional en tiempo real. Los autores advierten que tal capacidad plantea riesgos profundos para la gobernanza democrática, incluso si se utiliza de manera responsable.

Preocupaciones sobre armas letales autónomas

Los autores señalan que las armas autónomas pueden ser poco fiables en condiciones novas o ambiguas, careciendo del juicio matizado que los humanos proporcionan. También resaltan el fenómeno de la alucinación de la inteligencia artificial, que puede oscurecer el razonamiento detrás de la identificación de objetivos, lo que hace esencial mantener a los humanos en el bucle antes de que se lance cualquier munición letal.

Debido a que estos sistemas pueden no distinguir de manera fiable los objetivos o tener en cuenta los efectos colaterales, el breve pide salvaguardias técnicas o restricciones de uso para prevenir el despliegue sin supervisión humana.

Voz unificada a través de las empresas

Aunque los firmantes provienen de diferentes empresas y tienen puntos de vista políticos diversos, comparten la convicción de que los sistemas de inteligencia artificial de vanguardia presentan riesgos cuando se despliegan para la vigilancia masiva o las armas letales autónomas. Urgen el desarrollo de salvaguardias - ya sean técnicas o basadas en políticas - para abordar estos peligros.

#inteligencia artificial#ética de la IA#regulación gubernamental#contratos de defensa#demanda tecnológica#protesta industrial#seguridad de la IA#seguridad nacional#armas autónomas#vigilancia masiva

También disponible en: