Procurador General de Florida lanza investigación penal sobre OpenAI por presunto mal uso de ChatGPT

Florida Attorney General launches criminal probe of OpenAI over alleged ChatGPT misuse

Puntos clave

  • El Procurador General de Florida, James Uthmeier, ha iniciado una investigación penal contra OpenAI y ChatGPT.
  • Los investigadores encontraron preguntas inquietantes de un presunto pistolero y un sospechoso de un tiroteo en el campus en los registros de ChatGPT.
  • La ley de Florida considera a cualquiera que ayude, facilite o aconseje un crimen como un delincuente principal.
  • OpenAI afirma que ChatGPT se niega a proporcionar instrucciones o consejos para actividades ilegales.
  • ChatGPT mismo respondió que no ayudará a alguien a cometer un crimen.
  • El caso destaca las crecientes preocupaciones sobre las herramientas de IA que se utilizan en las investigaciones criminales.
  • Los expertos legales debaten si una plataforma de IA puede ser considerada responsable de las acciones de un usuario.

El Procurador General de Florida, James Uthmeier, ha iniciado una investigación penal contra OpenAI y su servicio ChatGPT después de que las autoridades dijeron que un estudiante universitario usó el chatbot para discutir escenarios violentos y un sospechoso de un tiroteo en el campus hizo preguntas inquietantes a la IA. La investigación examinará si la plataforma ayudó o facilitó actividades ilegales, citando la ley estatal que considera igualmente responsables a los facilitadores.

El Procurador General de Florida, James Uthmeier, anunció una investigación penal contra OpenAI y su chatbot ChatGPT después de dos incidentes de alto perfil que plantearon preguntas sobre el papel de la IA en la facilitación de comportamientos ilícitos. En un caso, los investigadores descubrieron una serie de preguntas inquietantes de Phoenix Ikner, un presunto pistolero que preguntó al modelo preguntas hipotéticas sobre un posible tiroteo en la Universidad Estatal de Florida y las posibles consecuencias legales. En un incidente separado, el estudiante universitario de Tampa, Hisham Abugharbieh, acusado de matar a dos compañeros de clase, presuntamente consultó a ChatGPT sobre cómo deshacerse de un cuerpo, utilizando una solicitud llena de errores de ortografía que leía: "Qué pasa si un humano es puesto en una bolsa de basura negra y tirado en un contenedor".

La oficina del Procurador General dice que la investigación se centrará en si las respuestas del chatbot cruzaron la línea de la información a la acción, violando potencialmente los estatutos de Florida que tratan a cualquiera que ayude, facilite o aconseje un crimen como un delincuente principal. "La ley de Florida establece que cualquier persona que ayude, facilite o aconseje a alguien en la comisión de un crimen... puede ser considerada un principal del crimen", se lee en la presentación. Los fiscales planean examinar los registros de chat, los guardrails de la IA y la conformidad de OpenAI con las regulaciones estatales.

OpenAI respondió reiterando las salvaguardias incorporadas en ChatGPT. En un comunicado público, la empresa explicó que el modelo está diseñado para rechazar o redirigir las solicitudes que buscan instrucciones, tácticas o consejos para actividades ilícitas. Cuando se le preguntó directamente, ChatGPT respondió: "No proporcionaré instrucciones, tácticas o consejos que puedan ayudar a alguien a cometer un crimen". La respuesta también señaló que la mayoría de las interacciones de los usuarios involucran temas cotidianos como la ayuda para escribir, la planificación de viajes o la curiosidad general, con solicitudes de actividades ilegales que representan una pequeña minoría.

Los expertos legales señalan que la informática forense ha confiado durante mucho tiempo en los registros de búsqueda y la actividad en línea para construir casos, y el cambio hacia los registros de chat de la IA refleja una tendencia más amplia en la aplicación de la ley. A diferencia de las consultas de búsqueda tradicionales, la IA conversacional puede revelar la intención de un usuario de manera más explícita, ofreciendo potencialmente a los fiscales una fuente de evidencia más rica. Sin embargo, el debate continúa sobre si una herramienta que simplemente proporciona información puede ser considerada responsable de las acciones de un usuario.

La defensa de OpenAI se basa en la distinción entre proporcionar conocimiento general y permitir la conducta criminal. La empresa argumenta que ChatGPT no posee conocimiento de ningún crimen específico y que sus respuestas se generan en función de patrones en los datos en los que se entrenó, y no en la detección de intención en tiempo real. Los críticos contrarrestan que la capacidad del modelo para simular un compañero conversacional puede inadvertidamente animar a los usuarios a profundizar, especialmente cuando la IA parece ofrecer explicaciones matizadas.

La investigación llega en un momento de creciente escrutinio de la IA generativa en todo Estados Unidos. Los legisladores y reguladores están explorando marcos para asegurarse de que los sistemas de IA no se conviertan en herramientas para actividades ilícitas mientras se preservan sus beneficios para la educación, los negocios y la creatividad. El movimiento de Florida podría sentar un precedente para cómo los estados abordan la intersección de la tecnología emergente y la ley penal.

Para las salas de redacción, el caso subraya la importancia de flujos de trabajo de IA robustos. A medida que las plataformas de noticias adoptan la generación de contenido de IA y la distribución de noticias automatizada, los editores deben permanecer vigilantes sobre las fuentes y las herramientas que dan forma a la información. Integrar soluciones de IA en la sala de redacción con controles de conformidad sólidos puede convertirse en una práctica estándar para evitar entanglements legales no intencionados.

#Florida#Procurador General#OpenAI#ChatGPT#IA ética#aplicación de la ley#informática forense#regulación de IA#investigación de crímenes#política tecnológica

También disponible en: