OpenAI Anuncia Beca de Seguridad Piloto en Medio de Investigación de The New Yorker

Puntos clave
- OpenAI lanzó una beca de seguridad piloto de seis meses el 6 de abril de 2026.
- El programa se lleva a cabo del 14 de septiembre de 2026 al 5 de febrero de 2027.
- Los becarios reciben una subvención mensual, créditos de API y mentoría de los investigadores de OpenAI.
- Las solicitudes cierran el 3 de mayo; las selecciones se anuncian el 25 de julio.
- El enfoque de la investigación incluye robustez, métodos de privacidad y dominios de uso indebido de alta gravedad.
- La beca se anunció horas después de una investigación de The New Yorker que expuso la disolución de los equipos de seguridad internos de OpenAI.
- Los participantes deben entregar un documento, un benchmark o un conjunto de datos al final del programa.
OpenAI presentó una beca de seguridad piloto de seis meses el 6 de abril de 2026, que ofrece a investigadores externos una subvención, créditos de cómputo y mentoría para abordar la seguridad y la alineación de la inteligencia artificial. El programa se lleva a cabo del 14 de septiembre de 2026 al 5 de febrero de 2027 y acepta solicitudes hasta el 3 de mayo. Su lanzamiento sigue a una investigación de The New Yorker que detalló la disolución de los equipos de seguridad internos de la empresa y la eliminación de la palabra "seguramente" de su declaración de misión. OpenAI afirma que la beca es una invitación abierta para expertos en ciencias de la computación, ciencias sociales y ciberseguridad para producir resultados de investigación concretos al final del programa.
OpenAI anunció una nueva beca de seguridad el 6 de abril de 2026, posicionando el piloto de seis meses como una respuesta directa al creciente escrutinio sobre los esfuerzos de seguridad internos de la empresa. La beca apoyará a un grupo de investigadores externos desde el 14 de septiembre de 2026 hasta el 5 de febrero de 2027. Cada becario recibe una subvención mensual, acceso a los créditos de API de OpenAI y mentoría dedicada del personal de investigación de la empresa. A cambio, los participantes deben entregar un resultado sustantivo, ya sea un documento, un benchmark o un conjunto de datos, al final del programa.
La oportunidad de anuncio es notable. Horas antes, The New Yorker publicó una investigación de Ronan Farrow y Andrew Marantz que alegaba que OpenAI había desmantelado su equipo Superalignment en mayo de 2024, su equipo AGI-Readiness en octubre de 2024 y el grupo Mission Alignment en febrero de 2026. El informe también afirmó que la palabra "seguramente" fue eliminada de la declaración de misión de la empresa en los archivos de la IRS. Cuando los periodistas preguntaron a OpenAI sobre la existencia de la "seguridad existencial", un portavoz supuestamente respondió: "¿Qué significa la seguridad existencial? Eso no es, como, una cosa".
La beca de OpenAI busca cambiar el enfoque de la investigación de seguridad hacia afuera, invitando a académicos de ciencias de la computación, ciencias sociales, ciberseguridad, privacidad y interacción humano-computadora. La empresa enfatizó que el juicio técnico y la capacidad de investigación superan las credenciales académicas formales en el proceso de selección. Las áreas prioritarias incluyen evaluación de seguridad, robustez, estrategias de mitigación escalables, métodos de privacidad, supervisión agente y dominios de uso indebido de alta gravedad.
Los solicitantes tienen hasta el 3 de mayo para presentar propuestas, con candidatos exitosos notificados el 25 de julio. Si bien los becarios recibirán créditos de API, no tendrán acceso a los sistemas internos de OpenAI, una restricción que subraya el diseño de brazo largo del programa. Los críticos dentro de la comunidad de seguridad de la IA ya han comenzado a debatir si una beca externa puede sustituir a un programa de alineación sólido en casa.
La estructura de la beca refleja una tendencia más amplia de la industria de aprovechar el talento externo para abordar desafíos éticos complejos. Al proporcionar recursos de cómputo y mentoría, OpenAI espera generar investigación accionable que se pueda integrar en su hoja de ruta de productos. Si la iniciativa restaurará la confianza en el compromiso de la empresa con la seguridad sigue siendo un tema de debate, pero el piloto marca el primer paso formal y público desde que se disolvieron los equipos internos.