Google firma contrato clasificado de inteligencia artificial con el Pentágono, lo que genera una reacción en contra de los empleados

Puntos clave
- Google firmó un contrato clasificado con el Departamento de Defensa de los Estados Unidos que permite al Pentágono utilizar los modelos de inteligencia artificial de la empresa para cualquier propósito gubernamental legal.
- El trato fue informado por The Information el martes, citando a una fuente anónima.
- Más de 560 empleados de Google firmaron una carta abierta el lunes instando al CEO Sundar Pichai a rechazar el trabajo de inteligencia artificial militar clasificado.
- A diferencia del acuerdo anterior de Anthropic con el Pentágono, el contrato de Google no contiene excepciones éticas sobre la vigilancia o las armas autónomas.
- OpenAI y xAI ya habían firmado contratos clasificados similares de inteligencia artificial con el Pentágono.
- Anthropic fue incluida en una lista negra a principios de este año después de negarse a eliminar las restricciones éticas de su contrato.
- Google no ha confirmado públicamente los términos del acuerdo, y la respuesta de la empresa a las preocupaciones de los empleados remains pendiente.
Google ha entrado en un acuerdo clasificado con el Departamento de Defensa de los Estados Unidos que permite al Pentágono utilizar los modelos de inteligencia artificial de la empresa para cualquier propósito gubernamental legal. El trato, informado por The Information, llega solo un día después de que más de 560 ingenieros de Google firmaran una carta abierta instando al CEO Sundar Pichai a rechazar dichos contratos militares.
Google anunció una asociación clasificada con el Departamento de Defensa de los Estados Unidos que otorga al Pentágono acceso sin restricciones a los modelos de inteligencia artificial de la empresa. El acuerdo, descrito por The Information como que permite el uso para "cualquier propósito gubernamental legal", marca la última adición a una creciente lista de proveedores de inteligencia artificial que suministran capacidades avanzadas al ejército.
Los empleados de Google reaccionaron con dureza. El lunes, más de 560 ingenieros y personal firmaron una carta abierta dirigida al CEO Sundar Pichai, instándolo a rechazar cualquier trabajo de inteligencia artificial militar clasificado. Al día siguiente, la misma empresa había sellado un trato que los firmantes habían pedido que se rechazara, creando un contraste marcado que probablemente dominará las reuniones internas y las declaraciones públicas.
El contrato difiere marcadamente del arreglo que Anthropic estableció con el Pentágono a principios de este año. El trato de Anthropic incluyó prohibiciones explícitas sobre la vigilancia masiva doméstica y las armas autónomas sin supervisión humana. Esas restricciones llevaron a la administración Trump a incluir a Anthropic en una lista negra como un riesgo para la cadena de suministro de seguridad nacional en febrero de 2026. El acuerdo de Google, por otro lado, carece de dichos límites éticos, lo que se alinea con el modelo más amplio y menos restrictivo favorito por la administración.
OpenAI y xAI de Elon Musk ya habían firmado contratos clasificados similares. OpenAI renegoció sus términos para retener algunas líneas rojas sobre la vigilancia doméstica, mientras que xAI supuestamente entró en el acuerdo sin restricciones notables. Google ahora se une a un cuarteto de empresas de inteligencia artificial —OpenAI, xAI, Google y anteriormente Anthropic— capaces de proporcionar al Pentágono herramientas de inteligencia artificial de vanguardia para misiones clasificadas.
La oportunidad del trato amplifica la tensión interna. La carta de los empleados se circuló el lunes por la mañana; el contrato clasificado se informó que había sido firmado al día siguiente. Los analistas esperan que el episodio salga a la luz en las próximas reuniones de Pichai, briefings de prensa y posiblemente incluso en testimonios legales en el juicio de alto perfil de Musk-Altman, donde podrían surgir preguntas sobre la ética corporativa de la inteligencia artificial.
Google no ha confirmado públicamente los términos específicos del compromiso con el Pentágono. El lenguaje de "cualquier propósito gubernamental legal" proviene de una sola fuente anónima citada por The Information. Sin comentarios oficiales, la postura de la empresa remains incierta, lo que deja a los empleados y a los observadores externos interpretar las implicaciones.
El debate más amplio enfrenta la demanda gubernamental de inteligencia artificial sin restricciones contra los compromisos corporativos con el desarrollo ético de la inteligencia artificial. Desde la controversia del Proyecto Maven en 2018, muchas empresas de tecnología se comprometieron a evitar la militarización de la inteligencia artificial sin supervisión humana. La inclusión de Anthropic en la lista negra demostró el costo de mantener esos principios, mientras que OpenAI y ahora Google parecen dispuestos a satisfacer las necesidades amplias del Pentágono.
Si la decisión de Google resulta temporal o permanente dependerá de los cambios políticos y la presión interna de los firmantes de la carta abierta. Por ahora, el trato amplía la piscina de proveedores de inteligencia artificial del Pentágono, otorgándole acceso a algunos de los modelos más poderosos del mercado mientras deja las salvaguardas éticas en gran medida indefinidas.