Anthropic Suaviza Compromisos de Seguridad ante Presión del Pentágono

Puntos clave
- Anthropic reemplaza los límites de seguridad estrictos con informes de riesgo y mapas de ruta de seguridad más flexibles.
- El cambio se justifica como una respuesta a un entorno competitivo de inteligencia artificial y preocupaciones colectivas.
- El secretario de Defensa Pete Hegseth presionó a Anthropic para que otorgue acceso irrestricto al modelo Claude al ejército.
- Las posibles sanciones incluyen invocar la Ley de Producción de Defensa y revocar los contratos del Pentágono.
- Anthropic se niega a permitir que el modelo Claude se utilice para la vigilancia masiva o armas completamente autónomas.
- Los líderes de la ética de la inteligencia artificial advierten que la política más suave podría permitir una erosión gradual de los estándares de seguridad.
- El modelo Claude de Anthropic sigue siendo una herramienta clave de inteligencia artificial para las operaciones más sensibles del Pentágono.
Anthropic anunció una revisión de su Política de Escalado Responsable, reemplazando los límites de seguridad estrictos con informes de riesgo y mapas de ruta de seguridad más flexibles. El cambio sigue a los informes de que el secretario de Defensa Pete Hegseth urgió a la empresa a otorgar acceso irrestricto al modelo de inteligencia artificial Claude al ejército, amenazando con sanciones bajo la Ley de Producción de Defensa. La dirección de Anthropic argumentó que las detenciones estrictas en el entrenamiento de modelos ya no ayudarían a nadie dado el ritmo acelerado del desarrollo de la inteligencia artificial. Los críticos advirtieron que el cambio podría erosionar las salvaguardias y permitir una erosión gradual de los estándares de seguridad.
Cambio de Política en Anthropic
Anthropic reveló que está modificando su Política de Escalado Responsable (RSP). Anteriormente, la política contenía límites de seguridad estrictos que detenían el entrenamiento de modelos a menos que se cumplieran garantías de seguridad específicas de antemano. La nueva versión adopta un enfoque más relativo, introduciendo "Informes de Riesgo" y "Mapas de Ruta de Seguridad" para proporcionar transparencia pública en lugar de límites estrictos.
Razón del Cambio
La empresa dijo que el ajuste se debe a un "problema de acción colectiva" en un paisaje competitivo de inteligencia artificial y preocupaciones de que una postura anti-regulatoria en Estados Unidos podría dejar el campo menos seguro si algunos desarrolladores se detienen mientras otros avanzan sin mitigaciones sólidas. El director de ciencia de Anthropic, Jared Kaplan, le dijo a Time que el avance rápido de la inteligencia artificial hizo que los compromisos unilaterales parecieran poco útiles, señalando: "Sentimos que no ayudaría a nadie que nos detuviéramos a entrenar modelos de inteligencia artificial".
Presión del Pentágono Reportada
Concurrentemente con el anuncio de la política, Axios informó que el secretario de Defensa Pete Hegseth le dijo al CEO de Anthropic, Dario Amodei, que la empresa debe otorgar acceso irrestricto al modelo Claude al ejército antes de una fecha límite establecida o enfrentar sanciones. Las amenazas de Hegseth incluyeron invocar la Ley de Producción de Defensa, que podría obligar a las empresas privadas a priorizar ciertos contratos para la defensa nacional, y potencialmente cortar el contrato de Anthropic con el Pentágono mientras etiquetaba el modelo como un riesgo de cadena de suministro.
Implicaciones para el Uso Militar
Claude es aparentemente el único modelo de inteligencia artificial utilizado para el trabajo más sensible del Pentágono, con referencias a su participación en una operación en Venezuela. Un funcionario de defensa enfatizó la urgencia de la tecnología, diciendo: "La única razón por la que todavía estamos hablando con estas personas es que las necesitamos y las necesitamos ahora". Anthropic ha indicado su disposición a adoptar sus políticas de uso para el Pentágono, pero se niega a permitir que el modelo se utilice para la vigilancia masiva de estadounidenses o armas completamente autónomas.
Reacciones de la Comunidad de Ética de la Inteligencia Artificial
Chris Painter, director de la organización sin fines de lucro METR, describió el cambio de política como comprensible y potencialmente ominoso. Elogió el enfoque en la presentación de informes de riesgo transparentes, pero advirtió que una RSP más flexible podría llevar a un efecto de "hervir a la rana", donde las racionalizaciones incrementales erosionan gradualmente los estándares de seguridad. Painter señaló que el cambio sugiere que Anthropic está entrando en "modo de triage" porque los métodos actuales para evaluar y mitigar el riesgo están rezagados con respecto al crecimiento rápido de las capacidades.
Contexto de la Industria
Las versiones más recientes de Claude de Anthropic han recibido elogios, especialmente para tareas de codificación. Al comienzo del año, la empresa recaudó una gran ronda de inversión, lo que elevó su valoración a varios cientos de miles de millones de dólares, mientras que una empresa rival de inteligencia artificial tiene una valoración que supera los $800 mil millones. La revisión de la política refleja la tensión más amplia de la industria entre el desarrollo rápido, la presión competitiva y el deseo de mantener salvaguardias de seguridad sólidas.