Las restricciones de vigilancia de Anthropic generan tensión con la Casa Blanca

White House officials reportedly frustrated by Anthropic’s law enforcement AI limits

Puntos clave

  • White House officials are frustrated by Anthropic’s ban on domestic surveillance use of Claude models.
  • Federal contractors for the FBI and Secret Service face roadblocks when seeking AI‑driven surveillance tools.
  • Anthropic’s Claude models are among the few AI systems cleared for top‑secret work through AWS GovCloud.
  • The company has a $1‑fee agreement to provide AI services to federal customers.
  • A GSA blanket agreement now permits OpenAI, Google and Anthropic to supply AI tools to federal workers.
  • OpenAI will deliver ChatGPT Enterprise to over 2 million federal employees for $1 per agency per year.
  • Anthropic also serves the Department of Defense but still prohibits its models for weapons development.

Funcionarios de la Casa Blanca han expresado frustración con la política de Anthropic que prohíbe el uso de sus modelos Claude para la vigilancia doméstica. Esta restricción está creando obstáculos para los contratistas federales que trabajan con agencias como el FBI y el Servicio Secreto.

Antecedentes

Los modelos Claude de Anthropic se utilizan en contextos de alta seguridad y están aprobados para situaciones de secreto absoluto a través de Amazon Web Services\' GovCloud. La empresa tiene un acuerdo especial con el gobierno federal que proporciona sus servicios por una tarifa nominal de \$1.

Restricciones de política

Las políticas de uso de Anthropic prohíben el uso de sus modelos de inteligencia artificial para la vigilancia doméstica, una postura que ha generado críticas de funcionarios senior de la Casa Blanca. Los contratistas que trabajan con agencias como el FBI y el Servicio Secreto han encontrado obstáculos al intentar emplear Claude para tareas relacionadas con la vigilancia. Los funcionarios preocupan que la empresa haga cumplir sus políticas de manera selectiva y utilice una terminología vaga que permite una interpretación amplia.

Acuerdos federales

Además del acuerdo de \$1 de Anthropic, la Administración de Servicios Generales recientemente firmó un acuerdo en blanco que permite a OpenAI, Google y Anthropic suministrar herramientas de inteligencia artificial a los trabajadores federales. OpenAI anunció un contrato separado para proporcionar acceso a ChatGPT Enterprise a más de 2 millones de empleados federales de la rama ejecutiva por \$1 por agencia por año.

Contexto de la industria

La fricción destaca una tensión entre las políticas de uso ético de los proveedores de inteligencia artificial privados y la demanda de las agencias gubernamentales de capacidades de inteligencia artificial avanzadas en operaciones de aplicación de la ley y seguridad nacional. Si bien Anthropic también trabaja con el Departamento de Defensa, sus políticas siguen prohibiendo el uso de sus modelos para el desarrollo de armas.

#Anthropic#Claude#Casa Blanca#Administración Trump#FBI#Servicio Secreto#AWS GovCloud#Departamento de Defensa#OpenAI#ChatGPT Enterprise#Administración de Servicios Generales#Política de inteligencia artificial#Vigilancia doméstica

También disponible en: