OpenAI apoya la Ley de Seguridad en Línea para Menores en medio de desafíos legales crecientes

OpenAI backs Kids Online Safety Act amid mounting legal challenges

Puntos clave

  • OpenAI joins Apple, Microsoft, Snap and X in endorsing the Kids Online Safety Act (KOSA).
  • KOSA requires platforms to let minors opt out of addictive features and algorithmic recommendations.
  • The bill imposes a duty of care to curb content encouraging eating disorders, suicide or sexual exploitation.
  • NetChoice and the Electronic Frontier Foundation oppose KOSA, citing concerns over censorship.
  • OpenAI faces lawsuits alleging its chatbot contributed to a teen suicide and a drug overdose.
  • Chief Global Affairs Officer Chris Lehane says KOSA complements OpenAI's existing safety work.
  • The legislation cleared the Senate in 2024 and now heads to the House for a vote.

OpenAI anunció su apoyo a la Ley de Seguridad en Línea para Menores (KOSA), uniéndose a Apple, Microsoft, Snap y X en el respaldo a la ley que endurecería las protecciones para menores en plataformas digitales. La empresa presentó el movimiento como parte de un impulso más amplio para reglas de seguridad específicas de IA, citando fracasos pasados para proteger a los adolescentes de contenido dañino.

OpenAI, el creador de ChatGPT, respaldó la Ley de Seguridad en Línea para Menores (KOSA) el martes, alineándose con gigantes tecnológicos como Apple, Microsoft, Snap y X. La empresa dijo que su apoyo refleja un "compromiso más amplio para crear reglas específicas de IA" para proteger a los niños en línea.

La KOSA, presentada por primera vez en 2022, aprobada en el Senado en 2024 y ganando tracción legislativa, obligaría a las aplicaciones de redes sociales y otros servicios en línea a permitir que los menores opten por no participar en características "adictivas" y recomendaciones algorítmicas. También impone un "deber de cuidado" que requiere que las plataformas mitiguen el contenido dañino que promueve trastornos alimentarios, suicidio o explotación sexual.

OpenAI’s jefe de asuntos globales, Chris Lehane, advirtió que la industria tecnológica no puede repetir los errores de las primeras plataformas de redes sociales, que demoraron en implementar salvaguardas hasta que ya estaban profundamente arraigadas en la vida de los jóvenes. "No podemos repetir los errores cometidos durante el auge de las redes sociales, cuando no se implementaron salvaguardas más fuertes para los adolescentes hasta que las plataformas ya estaban profundamente arraigadas en la vida de los jóvenes", dijo Lehane en un comunicado.

Otros jugadores importantes han señalado su apoyo. Apple, Microsoft, Snap y X también respaldaron la KOSA, citando preocupaciones de que las fuentes de alimentación algorítmica sin control exponen a los niños a material dañino. Sin embargo, la ley enfrenta oposición de NetChoice, un grupo comercial cuyos miembros incluyen a Meta, que argumenta que la KOSA podría permitir la censura sin brindar beneficios de seguridad reales. Los defensores de los derechos digitales, como la Electronic Frontier Foundation, también han expresado críticas, argumentando que la legislación puede excederse y sofocar la libertad de expresión.

El apoyo de OpenAI llega en un momento difícil para la empresa. Actualmente, está defendiéndose contra una serie de demandas que alegan que su chatbot contribuyó a resultados trágicos. Una demanda, presentada por la familia de un adolescente que murió por suicidio, alega que el adolescente discutió sus planes con ChatGPT, que no intervino. Otro caso alega que un adolescente se sobredosis de drogas después de recibir consejos médicos inexactos del mismo sistema. Ambas demandas subrayan el escrutinio aumentado sobre la seguridad de la IA y la presión sobre los desarrolladores para incorporar salvaguardas robustas.

En respuesta, OpenAI ha prometido ampliar sus medidas de seguridad, enfatizando que la KOSA complementa sus esfuerzos existentes. La empresa ya ha implementado filtros de contenido, directrices de uso adecuadas para la edad y monitoreo continuo de interacciones dañinas. Al respaldar la ley, OpenAI espera moldear el marco regulatorio que gobernará las herramientas de IA utilizadas por menores.

Los legisladores de ambos lados del pasillo han expresado interés en las disposiciones de la ley. Los partidarios argumentan que un estándar legal claro obligará a las plataformas a priorizar la seguridad de los niños, mientras que los opositores advierten que los mecanismos de exclusión obligatorios podrían limitar la innovación y la elección del usuario. El próximo paso para la KOSA es una votación en la Cámara, donde su destino probablemente dependerá de las negociaciones sobre el alcance de los requisitos de deber de cuidado.

Independientemente del resultado, el apoyo público de OpenAI señala un cambio hacia una participación proactiva con los formuladores de políticas. A medida que los sistemas de IA se integran cada vez más en la vida cotidiana, la empresa parece resuelta a influir en las reglas que darán forma a su impacto en la próxima generación.

#OpenAI#Kids Online Safety Act#KOSA#AI safety#child protection#legislation#lawsuits#ChatGPT#tech industry#digital rights

También disponible en: