Altman dice que la salida de Musk mejoró la moral, pero su gestión dejó cicatrices duraderas en OpenAI

Altman says Musk's exit lifted morale, but his management left lasting scars at OpenAI

Puntos clave

  • Sam Altman testificó que el estilo de gestión de Elon Musk en OpenAI fue duro e incompatible con la cultura de investigación.
  • Musk exigía la clasificación de los investigadores y la eliminación rápida de proyectos que no rindieran.
  • Altman dijo que la salida de Musk en 2018 mejoró la moral, liberando al personal de la presión constante para rendir.
  • OpenAI afirmó que Musk se fue para evitar un conflicto de intereses con Tesla, una narrativa cuestionada por el testimonio.
  • La demanda de Musk alega que OpenAI abandonó su misión humanitaria original y que él fue engañado para financiar la startup.
  • Testigos clave esta semana incluyen a Greg Brockman, Shivon Zilis, Satya Nadella y Mira Murati.
  • El caso resalta una tensión más amplia entre el desarrollo de productos rápidos y el ritmo más lento de la investigación de inteligencia artificial fundamental.

Durante su testimonio en la demanda de Elon Musk contra OpenAI, el CEO Sam Altman describió el estilo de gestión del fundador de Tesla como un "hacha de guerra" que dañó la cultura del laboratorio. Altman dijo que la salida de Musk en 2018 mejoró la moral del personal, permitiendo a los investigadores trabajar sin presión constante para rendir.

Sam Altman testificó esta semana que la breve gestión de Elon Musk en OpenAI dejó una marca de miedo y competencia que sofocó la investigación científica. Al responder a preguntas del abogado de Musk, Altman recordó cómo el CEO de Tesla exigía que el presidente Greg Brockman y el ex científico jefe Ilya Sutskever clasificaran a los investigadores según su producción y "tomaran un hacha de guerra" para eliminar proyectos que no cumplieran con los objetivos a corto plazo. La descripción, dura y vívida, subrayó un enfoque de gestión que Altman dijo que estaba en desacuerdo con un entorno de investigación que prospera en la seguridad psicológica y el enfoque a largo plazo.

Altman argumentó que el estilo de Musk, aunque familiar por su trabajo en Tesla, no se tradujo en un laboratorio donde los avances a menudo requieren meses, si no años, de exploración sin restricciones. "No creo que el señor Musk entendiera cómo dirigir un buen laboratorio de investigación", le dijo al tribunal. "Para un laboratorio de investigación donde la gente necesita, por así decirlo, seguridad psicológica y períodos de tiempo largos para perseguir una idea, esta idea de que constantemente debes mostrar tus resultados, y si no son lo suficientemente buenos en un período corto, vas a ser despedido, eso realmente no funcionó para el tipo de investigación que logramos hacer con éxito".

El testimonio puso la salida de Musk en 2018 de la organización sin fines de lucro en una nueva perspectiva. OpenAI había anunciado que el multimillonario se fue para evitar un conflicto de intereses con el trabajo de aprendizaje automático de Tesla. Altman, sin embargo, sugirió que la partida también fue un alivio para el personal que de repente se sintió libre de la presión para constantemente demostrar su valía. "Su partida fue un impulso para la moral en algunos sentidos", dijo Altman, señalando que los empleados se dieron cuenta de que ya no tenían que "trabajar de esta manera".

La demanda de Musk, presentada a principios de este año, alega que OpenAI abandonó su misión fundadora de beneficiar a la humanidad y que Altman y Brockman lo engañaron para que proporcionara financiamiento inicial. El caso ha entrado en su tercera semana, con testimonios de varias figuras clave además de Altman, incluyendo al cofundador Greg Brockman, la ex miembro de la junta Shivon Zilis, el director ejecutivo de Microsoft Satya Nadella y la ex directora de tecnología de OpenAI Mira Murati. Sus declaraciones han pintado una imagen compleja de la evolución de la organización desde un laboratorio de investigación sin fines de lucro hasta una entidad con fines de lucro con profundas asociaciones corporativas.

Mientras que la audiencia del tribunal se centra en reclamos legales, los comentarios de Altman resaltan un cambio cultural que se ha desarrollado en OpenAI durante los últimos años. El énfasis inicial del laboratorio en la colaboración abierta y la investigación de seguridad a largo plazo dio paso a un ritmo de desarrollo de productos más agresivo a medida que la organización perseguía sistemas de inteligencia artificial comerciales. Los críticos han argumentado que este cambio puede haber erosionado algunas de las salvaguardias originales que los fundadores habían previsto.

Los comentarios de Altman también sirven como recordatorio de la tensión entre el liderazgo visionario y las demandas prácticas de la investigación científica. La reputación de Musk por la iteración rápida y la eficiencia despiadada ayudó a acelerar el progreso en sus propias empresas, sin embargo, las mismas tácticas aparentemente chocaron con la naturaleza más lenta e iterativa de la investigación de inteligencia artificial. El contraste subraya un debate más amplio en la industria tecnológica sobre cómo equilibrar la velocidad, la ambición y la necesidad de un entorno estable y de apoyo para los investigadores.

Se espera que el juicio continúe durante el verano, con ambos lados preparados para presentar más pruebas sobre la gobernanza de OpenAI, las decisiones de financiamiento y el cumplimiento de su misión declarada. Por ahora, el testimonio de Altman ofrece una visión rareza de la dinámica interna que dio forma a uno de los laboratorios de inteligencia artificial más influyentes del mundo durante sus años formativos.

#OpenAI#Elon Musk#Sam Altman#investigación de inteligencia artificial#demanda tecnológica#cultura corporativa#moral#laboratorios de investigación#noticias de tecnología#procedimientos legales

También disponible en: