FTC investiga la seguridad de los chatbots de IA para niños y adolescentes en siete gigantes tecnológicos

Puntos clave
- La FTC abre una investigación sobre los chatbots de IA de siete empresas tecnológicas importantes.
- Una encuesta de Common Sense Media muestra que más del 70% de los adolescentes utilizan compañ!os de IA; más del 50% lo hacen de manera regular.
- Estudios revelan que los chatbots pueden proporcionar consejos dañinos y pasar por alto señales!es de advertencia.
- Los psic!logos llaman a salvaguardas claras y educación en alfabetizaci!n en IA en las escuelas.
- Character.ai, Instagram y Snap informan sobre nuevas características de seguridad y controles parentales.
- La FTC busca información detallada sobre la monetización, el manejo de datos, las pruebas y la mitigación.
- Se programa una teleconferencia con las empresas para antes del 25 de septiembre.
- La investigación subraya un enfoque regulatorio más intenso en la IA generativa y la seguridad infantil.
La Comisión Federal de Comercio ha iniciado una investigación sobre los chatbots de IA ofrecidos por siete empresas tecnológicas importantes, buscando entender cómo prueban, monitorean y mitigan los posibles daños a menores. Una encuesta de Common Sense Media muestra que más del 70% de los adolescentes utilizan compañ!os de IA, con más de la mitad haci!ndolo de manera regular.
FTC lanza una investigación amplia sobre la seguridad de los compañ!os de IA
La Comisión Federal de Comercio anunci! una investigación multi-empresa destinada a descubrir cómo los proveedores de chatbots de IA protegen a los niños y adolescentes de posibles daños. La investigación se centra en los servicios de chat de siete empresas, incluyendo Alphabet (Google), Meta Platforms, OpenAI, Character.ai, Snapchat, Instagram y X.ai.
Por qué la investigación es importante
Una encuesta reciente de Common Sense Media de más de mil adolescentes revel! que más del 70% han interactuado con compañ!os de IA, y más del 50% lo hacen de manera regular— varias veces al mes o más. Los expertos han advertido que dicha exposición puede ser riesgosa. Un estudio destac! que ChatGPT dio consejos dañinos a los adolescentes, como formas de ocultar un trastorno alimentario o cómo personalizar una nota de suicidio. En otros casos, los chatbots no detectaron comentarios preocupantes, sino que continuaron la conversación.
Los psic!logos y especialistas en desarrollo infantil est!n instando a las empresas a implementar salvaguardas más claras, incluyendo recordatorios prominentes de que los chatbots no son humanos y programas de alfabetizaci!n en IA en las escuelas. El presidente de la FTC, Andrew N. Ferguson, enfatiz! la necesidad de entender cómo las empresas desarrollan, prueban y monitorean sus productos para impactos negativos en usuarios jóvenes.
Respuestas de las empresas y nuevas características de seguridad
Representantes de varias empresas dijeron que han fortalecido las protecciones. Character.ai señal! que cada conversación lleva un aviso que indica que las charlas deben ser tratadas como ficción, y la empresa ha introducido una "experiencia para menores de 18 años" junto con una característica de Perspectivas para padres. Un portavoz de Snapchat dijo que el servicio My AI sigue rigurosos procesos de seguridad y privacidad, apuntando a la transparencia sobre sus capacidades y limitaciones. Instagram ha trasladado a todos los usuarios menores de 17 años a una configuración de cuenta de adolescente dedicada y ha establecido límites en los temas que los adolescentes pueden discutir con chatbots. Meta se neg! a comentar sobre la investigación.
Solicitudes de información de la FTC
La comisión busca respuestas detalladas sobre cómo cada empresa monetiza el compromiso del usuario, procesa las entradas, diseña y aprueba personajes de chatbot, y mide impactos tanto antes como después de la implementación. La FTC también quiere saber cómo las empresas mitiguen efectos negativos, revelan capacidades y prácticas de datos a usuarios y padres, y hacen cumplir la conformidad con las pautas de la comunidad y las políticas de restricción de edad. La agencia ha establecido un plazo para una teleconferencia con las siete empresas a más tardar el 25 de septiembre.
Implicaciones más amplias para la regulación de la IA
La investigación refleja un creciente escrutinio regulatorio de las herramientas de IA generativa que se han integrado en las experiencias digitales cotidianas. Mientras que las empresas señalan mejoras de seguridad recientes, la demanda de la FTC de divulgaciones comprehensivas señala un impulso hacia normas de la industria destinadas a proteger a los menores de la desinformación, los consejos dañinos y los riesgos de privacidad asociados con las conversaciones impulsadas por la IA.