Anthropic suspende el acceso de Claude del creador de OpenClaw, lo restaura horas después

Puntos clave
- El creador de OpenClaw, Peter Steinberger, tuvo su cuenta de Claude suspendida el viernes por actividad "sospechosa".
- La prohibición se levantó unas horas después de que el incidente se volvió viral en X.
- Anthropic anunció recientemente que sus suscripciones estándar de Claude ya no cubrirán herramientas de terceros como OpenClaw.
- Los usuarios deben pagar por el uso de OpenClaw a través de la API de Claude en base a consumo.
- Steinberger, ahora empleado por OpenAI, criticó el movimiento como un "muro de pago" para las herramientas de código abierto.
- Un ingeniero de Anthropic respondió públicamente, diciendo que la empresa no prohíbe a los usuarios de OpenClaw.
- La controversia reavivó las tensiones entre los marcos de trabajo de código abierto para inteligencia artificial y los proveedores de modelos propietarios.
- Los desarrolladores que utilizan OpenClaw con Claude deberán monitorear los costos de uso de cerca.
El fundador de OpenClaw, Peter Steinberger, dijo que su cuenta de Anthropic Claude fue suspendida el viernes por actividad "sospechosa", solo para ser reinstalada unas horas después de que el incidente se volvió viral. La breve prohibición siguió a la decisión de Anthropic de dejar de cubrir herramientas de terceros como OpenClaw bajo su suscripción estándar, lo que obliga a los usuarios a pagar por el uso de la API por separado.
Peter Steinberger, el desarrollador detrás del popular marco de trabajo OpenClaw, publicó una captura de pantalla en X a principios de la mañana del viernes que mostraba un mensaje de Anthropic en el que se indicaba que su cuenta de Claude había sido suspendida por actividad "sospechosa". La imagen, acompañada de un comentario lacónico – "Sí, gente, va a ser más difícil en el futuro garantizar que OpenClaw siga funcionando con los modelos de Anthropic" – se difundió rápidamente por la plataforma.
Horas después, Steinberger anunció que su acceso había sido restaurado. El revés llegó después de que la publicación atrajera varios cientos de respuestas, incluida una de un ingeniero de Anthropic que insistió en que la empresa nunca prohíbe a los usuarios por utilizar OpenClaw y ofreció asistencia. Si el acercamiento del ingeniero provocó la reinstalación sigue sin estar claro; Anthropic no ha comentado públicamente.
La suspensión no ocurrió en el vacío. La semana anterior, Anthropic anunció que sus suscripciones estándar de Claude ya no cubrirían "arneses de terceros", nombrando explícitamente a OpenClaw. Los suscriptores ahora deben pagar por cualquier uso de OpenClaw a través de la API de Claude en base a consumo. Anthropic enmarcó el cambio como una respuesta a los "patrones de uso" de las garras, que pueden exigir más cálculo que los prompts típicos porque ejecutan bucles de razonamiento continuo, reintenta tareas automáticamente y se integran con numerosas herramientas externas.
Steinberger, quien también trabaja para OpenAI, expresó escepticismo. Publicó que el momento parecía intencional, observando que Anthropic había agregado recientemente características a su agente Cowork de código cerrado — como Claude Dispatch, que permite a los usuarios controlar de forma remota a los agentes y asignar tareas — justo antes del cambio de precios. "Es divertido cómo coinciden los tiempos, primero copian algunas características populares en su arnés cerrado, luego bloquean el código abierto", escribió.
La controversia revivió viejas tensiones entre las herramientas de código abierto para inteligencia artificial y las plataformas propietarias. Los usuarios de OpenClaw, que dependen del marco de trabajo para ejecutar agentes en varios proveedores de modelos, ahora enfrentan una capa adicional de costos cuando eligen Claude. Steinberger explicó que sigue probando Claude porque sigue siendo una opción popular para los usuarios de OpenClaw, aunque su trabajo diario en OpenAI se centra en la estrategia de producto para los modelos rivales.
Las reacciones en línea fueron mixtas. Algunos comentaristas acusaron a Steinberger de "elegir el lado equivocado" después de mudarse a OpenAI, mientras que otros defendieron su derecho a criticar la política de precios de Anthropic. Un usuario escribió: "Tuviste la elección, pero te fuiste al equivocado", a lo que Steinberger respondió: "Uno me dio la bienvenida, el otro envió amenazas legales". El intercambio destacó las apuestas personales para los desarrolladores que navegan por afiliaciones corporativas en el paisaje de inteligencia artificial en constante movimiento.
La decisión de Anthropic de cobrar un "impuesto a las garras", como lo llamaron algunos observadores, refleja una tendencia más amplia en la industria: los proveedores están endureciendo el control sobre cómo se acceden y monetizan sus modelos. Al separar los ingresos por suscripción de las cargas de trabajo de alta intensidad, las empresas buscan proteger los costos de infraestructura y fomentar a los desarrolladores a permanecer dentro de los ecosistemas propietarios.
Por ahora, OpenClaw sigue funcionando con Claude, pero los desarrolladores deben monitorear los costos de uso de cerca. Steinberger dijo que está "trabajando en" el cumplimiento del nuevo modelo de precios, insinuando posibles ajustes al marco de trabajo para mitigar los gastos. El incidente subraya el delicado equilibrio entre la innovación de código abierto y los intereses comerciales de los propietarios de modelos de inteligencia artificial.
Anthropic no ha emitido un comunicado formal sobre la suspensión o su política de precios. Steinberger declinó hacer más comentarios. El episodio agrega otro capítulo al debate en curso sobre cómo las plataformas de inteligencia artificial gestionarán las integraciones de terceros mientras preservan la apertura que muchos desarrolladores defienden.