CEO de Anthropic acusa a OpenAI de mentir sobre el acuerdo con el Pentágono

Anthropic CEO Accuses OpenAI of Lying About Pentagon Deal

Puntos clave

  • El CEO de Anthropic, Dario Amodei, califica las afirmaciones de OpenAI sobre su acuerdo con el Pentágono como "mentiras directas" y "mendaces".
  • Anthropic se retiró de un contrato con agencias de inteligencia de EE. UU. por preocupaciones sobre la seguridad de la IA relacionadas con la vigilancia y las armas autónomas.
  • Amodei critica el "teatro de seguridad" de OpenAI y su enfoque en la appeasement de los empleados en lugar de las salvaguardias reales.
  • Cuestiona la cláusula vaga de "todo uso legal" en el acuerdo de OpenAI como una posible laguna legal.
  • El CEO de OpenAI, Sam Altman, admite que el anuncio del acuerdo con el Pentágono fue apresurado y desordenado.
  • El Financial Times informa que Anthropic puede estar reanudando conversaciones con el Pentágono, pero los términos son indefinidos.
  • La reacción pública incluye un aumento en las desinstalaciones de ChatGPT y un aumento en las clasificaciones de la App Store de Claude.

El director ejecutivo de Anthropic, Dario Amodei, envió un memorando interno denunciando las declaraciones de OpenAI sobre su nuevo acuerdo con el Pentágono como "mentiras directas" y "mendaces". El memorando sigue la retirada de Anthropic de un contrato separado con agencias de inteligencia de EE. UU. por preocupaciones sobre el uso de la IA en la vigilancia masiva y las armas autónomas. Amodei critica a OpenAI por centrarse en la appeasement de los empleados en lugar de las salvaguardias de seguridad genuinas y cuestiona el lenguaje vago de "todo uso legal" en el acuerdo del Pentágono. El CEO de OpenAI, Sam Altman, admitió más tarde que el anuncio fue apresurado, mientras que los informes sugieren que Anthropic puede estar reanudando las conversaciones con el Pentágono.

Antecedentes

Anthropic, el creador del chatbot de IA Claude, se retiró recientemente de un contrato propuesto con agencias de inteligencia de EE. UU. La empresa citó preocupaciones de seguridad sobre la implementación de la inteligencia artificial para la vigilancia masiva de ciudadanos domésticos y para armas autónomas completamente autónomas.

Memorando interno de Anthropic

En respuesta, el CEO de Anthropic, Dario Amodei, circuló un memorando interno largo que ataca duramente la mensajería pública de OpenAI sobre su propio acuerdo con el Pentágono. Amodei califica las declaraciones de OpenAI como "mentiras directas" y llama a la mensajería en general "mendaz". Argumenta que la prometida "capa de seguridad" de OpenAI y otras seguridades equivalen a "teatro de seguridad" y sirven más para aplacar a los empleados que para proteger al público.

Crítica del acuerdo de OpenAI

Amodei tiene problemas con una cláusula en el acuerdo de OpenAI que hace referencia a "todo uso legal", describiendo el lenguaje como un área gris que podría permitir actividades cuestionables como la vigilancia doméstica. También sugiere que el énfasis de OpenAI en guardrails adicionales no aborda significativamente los riesgos de seguridad subyacentes.

Respuesta de OpenAI

El CEO de OpenAI, Sam Altman, admitió más tarde que el anuncio inicial del acuerdo con el Pentágono fue "apresurado" y "desordenado", lo que implica que la empresa puede necesitar perfeccionar su enfoque de los contratos gubernamentales.

Reanudación potencial de conversaciones con el Pentágono

Según un informe del Financial Times, Anthropic y su modelo Claude pueden estar explorando una asociación renovada con el ejército de EE. UU., aunque los detalles de cualquier término prospectivo siguen siendo inciertos.

Reacción de la industria y el público

La disputa ha aumentado la vigilancia de las relaciones entre las empresas de IA y los militares. En los días siguientes a los anuncios, la tasa de desinstalación de ChatGPT aumentó significativamente, mientras que Claude experimentó un aumento en las clasificaciones de la App Store, reflejando una opinión pública mixta sobre las implicaciones éticas de la implementación de la IA en contextos de defensa.

#Inteligencia Artificial#Ética de la IA#Anthropic#OpenAI#Pentágono#IA Militar#Claude#ChatGPT#Contratos Gubernamentales#Seguridad de la IA

También disponible en:

CEO de Anthropic acusa a OpenAI de mentir sobre el acuerdo con el Pentágono | AI News