El CEO de OpenAI, Sam Altman, insta al gobierno de EE. UU. y a Anthropic a reducir las tensiones sobre la IA

OpenAI CEO Sam Altman Urges U.S. Government and Anthropic to De‑Escalate AI Tensions

Puntos clave

  • OpenAI CEO Sam Altman urged the Pentagon and Anthropic to stop their escalating AI dispute.
  • Anthropic refused to remove safeguards that would allow fully autonomous weapons or mass surveillance.
  • The U.S. government labeled Anthropic a "supply‑chain risk" and barred federal use of its Claude model.
  • Anthropic sued, claiming constitutional violations; a judge temporarily blocked the Pentagon’s actions.
  • Altman argues AI’s geopolitical impact demands government oversight and collaborative governance.
  • He expresses cautious trust in democratic institutions despite public skepticism of government.
  • Altman warns that AI’s rapid growth outpaces regulatory and institutional capacity.
  • The call for cooperation seeks a balance between national‑security needs and ethical safeguards.

Sam Altman, director ejecutivo de OpenAI, pidió al Pentágono y a Anthropic que detengan el creciente conflicto sobre el uso de la IA en la seguridad nacional. En una entrevista reciente, Altman dijo que el peso geopolítico de la tecnología requiere una supervisión gubernamental y un enfoque colaborativo, advirtiendo que la competencia sin control podría poner en peligro tanto la seguridad como la innovación.

El director ejecutivo de OpenAI, Sam Altman, le dijo a los reporteros que Estados Unidos debe superar el conflicto en aumento con Anthropic y encontrar una forma de cooperar en la gobernanza de la inteligencia artificial. El conflicto comenzó cuando los funcionarios del Pentágono buscaron una versión del modelo Claude de Anthropic para aplicaciones militares, solo para encontrar un obstáculo después de que la empresa se negó a eliminar las salvaguardias que bloquean las armas completamente autónomas y la vigilancia masiva doméstica.

Washington respondió con una directiva ejecutiva que prohibió a las agencias federales utilizar la tecnología de Anthropic y calificó a la empresa como un "riesgo en la cadena de suministro". Anthropic demandó, alegando violaciones constitucionales, y un juez federal detuvo temporalmente las acciones del Pentágono.

Altman, al hablar con la periodista Laurie Segall, describió el conflicto como un síntoma de una lucha más amplia sobre quién debería tener el poder de la IA. "Encuentren una forma de trabajar juntos", dijo, instando a ambas partes a detener la escalada. Agregó que las apuestas son "el bit de más alto orden en geopolítica" y que la IA dará forma a las futuras guerras, defensas cibernéticas y decisiones de seguridad nacional.

A diferencia de algunos líderes de la IA que ven al gobierno con sospecha, Altman expresó una confianza tentativa en las instituciones democráticas. Reconoció la desconfianza pública, señalando que muchos "realmente no confían en que el gobierno siga la ley", pero argumentó que el impacto de la tecnología es demasiado consecuente como para dejarlo únicamente a las empresas privadas.

"El futuro del mundo y las decisiones sobre los elementos más importantes de la seguridad nacional deben tomarse a través de un proceso democráticamente electo", dijo Altman. Advirtió que el rápido avance de la IA está superando la capacidad de los gobiernos, reguladores y incluso la mayoría de las personas para calibrar sus riesgos.

Las declaraciones de Altman llegan en un momento en que las empresas de IA siguen presionando para una regulación ligera mientras promocionan la promesa de la tecnología para las misiones de seguridad nacional. Advirtió que la industria no puede reclamar tanto la innovación sin restricciones como un enfoque de laissez-faire en la gobernanza. "Si la IA es tan geopolíticamente consecuente como todos insisten, entonces los gobiernos querrán tener una mano en el timón", dijo.

El jefe de OpenAI también enfatizó que la colaboración no significa renunciar al control. "No creo que funcione para nuestra industria decir, \'Hey, esta es la tecnología más poderosa que la humanidad ha construido\', y luego entregarla sin supervisión", explicó Altman. Pidió una asociación equilibrada en la que las empresas ayuden al gobierno a salvaguardar la infraestructura crítica sin comprometer las salvaguardias éticas.

Mientras que el llamado de Altman a la cooperación puede no resolver las batallas legales de la noche a la mañana, señala un cambio hacia la búsqueda de un terreno común. El impulso del Pentágono por las capacidades de la IA, la resistencia de Anthropic a eliminar las características de seguridad y el debate regulatorio más amplio probablemente seguirán siendo puntos de conflicto a medida que los legisladores luchan por integrar modelos poderosos en las estrategias de defensa sin poner en peligro las libertades civiles.

#Sam Altman#OpenAI#Anthropic#Department of Defense#AI governance#AI regulation#national security#autonomous weapons#federal agencies#cybersecurity

También disponible en:

El CEO de OpenAI, Sam Altman, insta al gobierno de EE. UU. y a Anthropic a reducir las tensiones sobre la IA | AI News