Anthropic enfrenta filtraciones internas consecutivas después de un error de empaquetado

Puntos clave
- Anthropic filtró casi 3,000 archivos internos, incluyendo un borrador de publicación de blog sobre un modelo no lanzado.
- Un error de empaquetado en la versión 2.1.88 de Claude Code expuso alrededor de 2,000 archivos de código fuente y más de 512,000 líneas de código.
- La empresa describió los incidentes como problemas de empaquetado causados por errores humanos, no violaciones de seguridad.
- Claude Code es una herramienta de línea de comandos para que los desarrolladores escriban y editen código utilizando la inteligencia artificial de Anthropic.
- OpenAI recientemente detuvo su producto de generación de video Sora, citando un cambio hacia ofertas orientadas a desarrolladores.
- El investigador de seguridad Chaofan Shou identificó la filtración y publicó sobre ella en X.
- Los desarrolladores analizaron rápidamente el código filtrado, etiquetando Claude Code como una experiencia de desarrollador de producción.
- Anthropic debe mejorar sus procesos de seguridad y empaquetado internos para evitar futuras divulgaciones accidentales.
Anthropic experimentó dos incidentes consecutivos en los que archivos internos fueron expuestos involuntariamente. El primer incidente, reportado la semana pasada, hizo públicos casi 3,000 documentos internos, incluyendo un borrador de publicación de blog sobre un modelo no lanzado. El último incidente ocurrió cuando la empresa lanzó la versión 2.1.88 de su paquete de código Claude, empaquetando accidentalmente alrededor de 2,000 archivos de código fuente y más de 512,000 líneas de código. Anthropic etiquetó los eventos como problemas de empaquetado causados por errores humanos, en lugar de violaciones de seguridad. Las filtraciones han llamado la atención de competidores y desarrolladores, especialmente después de que OpenAI detuviera recientemente su producto de generación de video Sora en medio de una creciente competencia con Claude Code.
Filtraciones internas consecutivas
Anthropic, una empresa que ha construido su identidad pública en torno al desarrollo cuidadoso de la inteligencia artificial y la transparencia del riesgo, sufrió dos incidentes separados en los que materiales internos fueron expuestos involuntariamente al público. El primer incidente, reportado la semana pasada, involucró la publicación accidental de casi 3,000 archivos internos. Entre esos archivos se encontraba un borrador de publicación de blog que describía un nuevo modelo poderoso que la empresa no había anunciado aún.
El segundo incidente ocurrió cuando Anthropic lanzó la versión 2.1.88 de su paquete de software Claude Code. Un error de empaquetado causó la inclusión de un archivo que expuso alrededor de 2,000 archivos de código fuente y más de 512,000 líneas de código, esencialmente el plano arquitectónico completo de uno de sus productos más importantes. El investigador de seguridad Chaofan Shou notó rápidamente la filtración y publicó sobre ella en X.
Respuesta de la empresa
Anthropic respondió a múltiples medios con una declaración que describía los eventos como un "problema de empaquetado de lanzamiento causado por error humano, no una violación de seguridad". Aunque la redacción sugiere una postura medida, las reacciones internas probablemente fueron más preocupantes, dado lo sensible del material expuesto.
Impacto en Claude Code y el panorama competitivo
Claude Code no es una oferta menor; es una herramienta de línea de comandos que permite a los desarrolladores utilizar la inteligencia artificial de Anthropic para escribir y editar código, y se ha convertido en un competidor formidable en el mercado de inteligencia artificial orientado a desarrolladores. The Wall Street Journal señaló que OpenAI recientemente retiró su producto de generación de video Sora del público después de solo seis meses, cambiando el enfoque hacia desarrolladores y empresas, un movimiento parcialmente atribuido al creciente impulso de Claude Code.
El material filtrado no contenía el modelo de inteligencia artificial en sí, sino más bien el andamiaje de software que dirige el comportamiento del modelo, el uso de herramientas y las limitaciones. Los desarrolladores rápidamente comenzaron a publicar análisis detallados, describiendo Claude Code como una "experiencia de desarrollador de producción, no solo un envoltorio alrededor de una API". Aunque los competidores pueden encontrar la arquitectura instructiva, el ritmo del desarrollo de la inteligencia artificial significa que cualquier ventaja podría ser de corta duración.
Perspectiva futura
Anthropic ahora enfrenta el desafío de reforzar sus procesos de seguridad y empaquetado internos para prevenir futuras divulgaciones accidentales. Los incidentes subrayan el delicado equilibrio que las empresas de inteligencia artificial deben mantener entre la apertura, el desarrollo responsable y la protección de la tecnología propietaria.