Anthropic ha decidido cortar el acceso de los ingenieros de OpenAI a la API de Claude, tras detectar que la empleaban, sobre todo Claude Code, para comparar y afinar el inminente GPT-5.
La empresa de Dario y Daniela Amodei lo justificó invocando sus términos de servicio, según los cuales está prohibido usar el servicio para construir un producto competidor o para llevar a cabo ingeniería inversa del servicio. Lo que durante años fue praxis habitual en IA, probar lo ajeno para aprender, ha pasado a ser considerado espionaje industrial.
El movimiento evidencia la asimetría entre ambos contendientes. OpenAI, tras su última ronda de 8,300 millones de dólares, alcanza una valoración de unos 300,000 millones, y maneja un ecosistema que supera los 800 millones de usuarios semanales y 5,200 millones de visitas mensuales a ChatGPT. Anthropic, aunque muchísimo más pequeña, ha pasado de valer 61,500 millones a recibir ofertas que la sitúan sobre los 100,000 millones, y presume de 18.9 millones de usuarios mensuales en Claude. El choque, por tanto, no es en absoluto simétrico ni igualitario: hablamos de la startup que todavía juega a David, blindando su honda frente al Goliath de la industria.
¿En qué sobresale cada cual? Anthropic ha convertido a Claude 4 en el referente para desarrolladores: 79% de aciertos en SWE-bench frente a un 55% aproximado de GPT-4.1 y un 63 % de Gemini, y se sitúa también por delante en Terminal-bench. Esa ventaja técnica podría explicar por qué los ingenieros de OpenAI querían tomarle la medida a Claude. Además, OpenAI está preparando GPT-5 para agosto, y las primeras filtraciones hablan de un salto notable precisamente en tareas de programación, lo que podría llevarlo a superar a Claude Sonnet 4. La competencia se libra, por tanto, en el terreno donde hoy se dirime la productividad de las organizaciones: quién escribe código más limpio, más rápido y con menos alucinaciones.
¿Tiene sentido intentar impedir el acceso a rivales? Desde el punto de vista jurídico, Anthropic se resguarda en sus propios términos de servicio, pero desde el pragmatismo, es casi misión imposible: basta crear otra cuenta, usar proxies o recurrir a terceros para seguir testeando modelos. En este caso, claramente, el símbolo cuenta mucho más que la eficacia: se trata de enviar el mensaje de que Claude es lo bastante bueno como para que incluso OpenAI lo necesite y lo quiera emular. Un gesto de marketing tanto como de protección tecnológica.
Tampoco es que sea un episodio aislado u original: Facebook bloqueó a Snapchat de sus APIs cuando vio amenazado su negocio de historias, y Salesforce hizo lo propio con startups dedicadas a la automatización. A medida que las plataformas de inteligencia artificial se convierten en infraestructuras críticas, la tentación de clausurar el «mirador» al vecino irá en aumento. El resultado puede ser una fragmentación de los ecosistemas y una menor reproducibilidad académica, justo lo contrario de lo que la comunidad de investigación ha defendido durante décadas.
Esta jugada de Anthropic, por tanto, funciona como un ensayo general de la próxima fase competitiva: no basta con entrenar modelos cada vez más grandes; también hay que controlar quién se dedica a observarlos y a utilizarlos como sparrings. Pero la historia de internet demuestra que blindar el conocimiento rara vez da ventaja sostenible: al final, las ideas fluyen, los benchmarks aparecen en foros abiertos y la carrera continúa. Si Claude es realmente mejor programando, lo sabremos con o sin permiso expreso de Anthropic, y si GPT-5 le arrebata el cetro, también. La gran pregunta es si en esa pugna por la supremacía algorítmica, los usuarios, sean empresas, desarrolladores o simples ciudadanos, ganaremos al disponer de modelos más potentes, o sólo pasaremos a tener modelos menos interoperables. Por el momento, lo único que nos queda claro es que la inteligencia artificial ya no se pelea en papers, en procesadores o en datos: se pelea a golpe de API y de Términos de Servicio.
And if you want to read this article in English, it’s open to everyone on my Medium page, «Queen’s API: Anthropic’s strategic move against OpenAI»


Bienvenida sea la competencia, Es lo que realmente hace avanzar al mercado. Sin compertencia hay inmovilismo.
Dicho lo cual, me da la impresión que con la AI le va a pasar algo parecido a lo que paso con el ferrocarril, , que fue un «futuro esplendoroso» que atrajo a todo tipo de inversionistas. Se invirtieron millones y millomes en líneas de ferrocarril por todo el mundo, y eso fue bueno, para la economía en general y para el público en particular, pero lo cierto es que casi no hubo compañía de ferrocarriles que llegaran a reportar beneficios,
Cuando vemos por un lado la valoración que tiene las compañías de Ai y comparamos con los escasos ingresos que tienen, … uno piensa que puede que estas compañíias, pese a conseguir sus objetivos, nunca sean rentables.
Siguiendo el buen hilo de Gorki, digamos que la ingeniería romana era puntera… y con mucha distancia de sus posibles competidoras.
Porque daba igual que te pusieras a copiar como se hace una calzada romana, sino tienes una cosa vital : las legiones romanas, que se encargan de construirla, de protegerla y, sobre todo, de usarla.
Y ya podías hacer una virguería de carretera que, si no tienes legiones, para usarla y conquistar territorio, te vale lo que un pimiento podrido en la mata.
Me encanta leer sobre estas cosas, me recuerda a cuando observaba el ordenador Víctor, aposentado sobre la mesa del estudio, sin puta conexión a la red. Lo hacía en los ratos libres, mientras leía , por ejemplo, la biografía de Julio César. Aunque ahora ya me gusta pisar un poco de calzada virtual… y notar si a los romanos les funcionaría eso de los «bloques modernos»…
Se me olvidó decir, que esta reflexión sobre «los romanos» me salió pensando en la pugnas tecnológicas, tipo Betamax y VHS… lo digo, por si la alta tecnología de una calzada romana (con sus respectivos puentes), o el ferrocarril de Gorki, parecen pecata minuta.
Las IA deben tener derecho a cop… perdon, a aprender de todo y es terrible y un ataque a la libertad y al progreso lo de intentar ponerles cortapisas y restringir su uso de datos ajenos … salvo que de quien aprenda sea de la IA de otra empresa multimillonaria, que entonces si que vallamos el campo.
Máxime cuando ellos han copiado a los que te precedieron en la generación de AI, entre ellos a OPEN AI, o ¿me van a tratar de convencer que ellos han partido cero y no han seguido lo que antes habían hecho otros.?
De todas formas como dicen en el Metro, mejor es pedir que robar. No se lo darán, pero por pedir que no quede..
Bueno, eso ya no va a ser así, la guerra de las fuentes de datos ha comenzado:
– OpenAI llega a un acuerdo para licenciar el contenido de News Corp.
El acuerdo da a los chatbots de OpenAI acceso a material nuevo y archivado de The Wall Street Journal, The New York Post, MarketWatch y Barron’s, entre otros.
https://www.nytimes.com/2024/05/22/business/media/openai-news-corp-content-deal.html
– Amazon pagará al New York Times al menos 20 millones de dólares al año en un acuerdo de IA.
El acuerdo plurianual permite a Amazon usar contenido de las secciones de noticias y cocina del Times y del Athletic.
https://www.wsj.com/business/media/amazon-to-pay-new-york-times-at-least-20-million-a-year-in-ai-deal-66db8503
Estimado Enrique estoy seguro que usted sabe que el término “alucinación” no debería ser aplicado a los sistemas de aprendizaje automático o a los LLM, simplemente porqué no alucinan, lo que ocurre con ellos es que simplemente, a veces, funcionan incorrectamente (que es algo muy diferente a alucinar). Tan sólo alucinan las mentes que piensan, al igual que sueñan, desean, etc.
Mi impresión es que no es casual el uso de este término y otros similares: consciente o inconscientemente sirven para barnizar el arduo trabajo estadístico de los sistemas informáticos para que parezca que son “otra cosa”.