Director interino de CISA sube documentos sensibles a ChatGPT pública por error

CISA Acting Director Accidentally Uploads Sensitive Documents to Public ChatGPT

Puntos clave

  • El director interino de CISA subió documentos de "para uso oficial solo" a ChatGPT pública.
  • Se activaron alertas internas para prevenir la divulgación no autorizada.
  • El personal de DHS normalmente utiliza herramientas de inteligencia artificial aprobadas que mantienen los datos en las redes federales.
  • El material subido era no clasificado pero sensible, y podría afectar la privacidad y los programas nacionales.
  • Las herramientas de inteligencia artificial públicas como ChatGPT, con aproximadamente 700 millones de usuarios, presentan riesgos reales de seguridad de datos.
  • Se está llevando a cabo una investigación para determinar posibles medidas administrativas o disciplinarias.

El director interino de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) subió involuntariamente documentos marcados como "para uso oficial solo" a una versión pública de ChatGPT. Las subidas activaron alertas internas y generaron preocupación sobre la posible exposición de información no clasificada pero sensible a millones de usuarios. Funcionarios de DHS confirmaron que el personal normalmente utiliza herramientas de inteligencia artificial aprobadas que mantienen los datos dentro de las redes federales. Se está llevando a cabo una investigación para determinar posibles medidas administrativas o disciplinarias, incluyendo advertencias, capacitación obligatoria o consecuencias de seguridad.

Resumen del incidente

El director interino de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA), Madhu Gottumukkala, subió involuntariamente documentos designados como "para uso oficial solo" a la versión pública de ChatGPT el verano pasado. Según cuatro funcionarios del Departamento de Seguridad Nacional con conocimiento del incidente, las subidas activaron múltiples alertas de seguridad internas diseñadas para detener el robo o la divulgación no intencional de material gubernamental de las redes federales.

Acceso restringido a la inteligencia artificial y política

Gottumukkala solicitó permiso especial para utilizar el chatbot de OpenAI, una herramienta que la mayoría del personal de DHS está bloqueado para acceder. En cambio, el personal de DHS suele confiar en aplicaciones impulsadas por inteligencia artificial aprobadas, como el DHSChat de la agencia, que están configuradas para evitar que las consultas o documentos salgan de las redes federales. La solicitud de acceso y el posterior mal uso generaron preocupación entre los funcionarios de que el director "obligó a CISA a darle ChatGPT, y luego lo abusó".

Naturaleza de la información filtrada

El material subido no estaba clasificado pero llevaba una etiqueta de "para uso oficial solo", una designación utilizada dentro de DHS para identificar información no clasificada de naturaleza sensible. Si se comparte sin autorización, dicha información podría afectar adversamente la privacidad o el bienestar de una persona y podría obstaculizar programas esenciales para el interés nacional.

Exposición potencial y riesgos

Debido a que ChatGPT es un servicio público con aproximadamente 700 millones de usuarios activos, existe preocupación de que los datos subidos puedan ser accesados o utilizados para responder a solicitudes de cualquiera de esos usuarios. Los expertos han advertido que el uso de herramientas de inteligencia artificial públicas conlleva riesgos reales, ya que los datos subidos pueden ser retenidos, violados o incorporados en respuestas para otros usuarios.

Investigación y posibles consecuencias

DHS ha iniciado una investigación para evaluar si el incidente dañó la seguridad gubernamental. Los funcionarios indicaron que la investigación podría llevar a medidas administrativas o disciplinarias que van desde una advertencia formal y capacitación obligatoria hasta la suspensión o revocación de una autorización de seguridad. OpenAI no respondió a las solicitudes de comentarios.

#Ciberseguridad#Inteligencia Artificial#Violación de datos#Política gubernamental#DHS#CISA#ChatGPT#Autorización de seguridad#Riesgos de inteligencia artificial pública#Seguridad de la información

También disponible en: