Google firma acuerdo de inteligencia artificial con el Pentágono en medio de revuelta de empleados

Puntos clave
- Google firmó un contrato clasificado que permite al Pentágono utilizar sus modelos de inteligencia artificial para cualquier propósito gubernamental legítimo.
- El acuerdo incluye lenguaje que prohíbe el uso para la vigilancia masiva doméstica y las armas autónomas sin supervisión humana.
- Más de 600 empleados de Google firmaron una carta abierta urgiendo al CEO Sundar Pichai a rechazar la carga de trabajo clasificada.
- Los empleados citan preocupaciones sobre armas autónomas letales, vigilancia masiva y falta de transparencia en los proyectos clasificados.
- El Pentágono se negó a comentar sobre el acuerdo o la crítica de los empleados.
- La postura de Google refleja un cambio desde los principios de inteligencia artificial anteriores que prohibían ciertas tecnologías dañinas.
- La controversia revive recuerdos de las protestas del Proyecto Maven de 2018, donde Google también enfrentó una reacción en contra de los empleados.
Google ha entrado en un acuerdo clasificado con el Departamento de Defensa de los Estados Unidos que permite al Pentágono utilizar los modelos de inteligencia artificial de la empresa para "cualquier propósito gubernamental legítimo", incluyendo tareas militares sensibles. Esta medida se produce a pesar de una carta abierta firmada por más de 600 empleados de Google que urgen al CEO Sundar Pichai a rechazar el contrato, citando preocupaciones sobre armas autónomas letales y vigilancia masiva. Google afirma que el acuerdo incluye salvaguardas contra la vigilancia masiva doméstica y las armas autónomas sin supervisión humana, mientras que el Pentágono se negó a comentar. La controversia revive recuerdos de las protestas del Proyecto Maven de 2018 y plantea nuevas preguntas sobre la responsabilidad corporativa en el trabajo de inteligencia artificial de seguridad nacional.
Google anunció un nuevo contrato clasificado que otorga al Departamento de Defensa de los Estados Unidos acceso a los modelos de inteligencia artificial de la empresa para "cualquier propósito gubernamental legítimo". El acuerdo, informado por The Information, amplía la participación de Google en proyectos de seguridad nacional, permitiendo que el Pentágono despliegue las herramientas de inteligencia artificial de la empresa en aplicaciones militares sensibles. A cambio, Google ayudará al Departamento de Defensa a ajustar la configuración de seguridad y filtros a solicitud de la agencia, y mantendrá una postura de que su tecnología no debe ser utilizada para la vigilancia masiva doméstica o armas autónomas sin supervisión humana adecuada.
Los empleados de Google reaccionaron rápidamente. Más de 600 empleados firmaron una carta abierta dirigida al CEO Sundar Pichai, exigiendo que la empresa se negara a proporcionar sus sistemas de inteligencia artificial para cargas de trabajo clasificadas. La petición argumenta que los ingenieros de Google, que trabajan en estrecha colaboración con la tecnología, tienen el deber de prevenir sus "usos más poco éticos y peligrosos". Los firmantes citaron armas autónomas letales y vigilancia masiva como preocupaciones principales, pero advirtieron que el trabajo clasificado a menudo se produce sin la transparencia necesaria para que los empleados intervengan.
La reacción en contra recuerda a las protestas del Proyecto Maven de 2018, cuando miles de trabajadores de Google se manifestaron en contra de un programa del Pentágono que utilizaba la inteligencia artificial para analizar imágenes de drones. En ese momento, Google finalmente optó por no renovar el contrato. Sin embargo, el acuerdo actual marca un cambio: Google ha relajado el lenguaje en sus principios de inteligencia artificial que anteriormente prohibían a la empresa perseguir tecnologías que probablemente causen daño generalizado, armas o ciertas herramientas de vigilancia. En una publicación de blog de febrero, el CEO de DeepMind, Demis Hassabis, y el vicepresidente senior James Manyika enfatizaron que las democracias deben liderar el desarrollo de la inteligencia artificial y que las empresas y los gobiernos deben colaborar para construir una inteligencia artificial que proteja a las personas, promueva el crecimiento y apoye la seguridad nacional.
La respuesta pública de Google presentó el acuerdo como un "enfoque responsable" para apoyar la seguridad nacional. Un portavoz de la empresa le dijo a CNET que Google sigue comprometido con la postura de que la inteligencia artificial no debe ser utilizada para la vigilancia masiva doméstica o armas autónomas sin supervisión humana, y que proporcionar acceso a la API bajo prácticas comerciales estándar se alinea con ese compromiso. El Pentágono se negó a comentar sobre los detalles del contrato o la crítica de los empleados.
Dentro de Google, la respuesta ha sido personal y profesional. Andreas Kirsch, un investigador de DeepMind, publicó en X que se siente "incrediblemente avergonzado" del acuerdo, reflejando la profundidad de la disensión entre el personal técnico de la empresa. La carta abierta concluye con un llamado directo a Pichai: "Hoy, te pedimos, Sundar, que actúes según los valores sobre los que se fundó esta empresa, y te niegues a realizar cargas de trabajo clasificadas".
El episodio destaca una creciente tensión entre las empresas de tecnología ansiosas por servir a los clientes gubernamentales y una fuerza laboral cada vez más sensible a las implicaciones éticas de su trabajo. A medida que los sistemas de inteligencia artificial se vuelven más poderosos y sus aplicaciones más opacas, los empleados exigen una supervisión más clara y salvaguardas más fuertes. Si Google ajustará o se retirará del acuerdo sigue siendo incierto, pero el episodio ya ha reiniciado un debate que comenzó con el Proyecto Maven y no muestra signos de desvanecerse.