OpenAI tenía todo para ganar. Eso fue exactamente su problema
Por qué la empresa que inició la era de la IA está perdiendo el mercado que más importa
OpenAI cerró la ronda de financiamiento privado más grande de la historia: $122 mil millones dólares. Tiene 900 millones de usuarios semanales, alianza con Microsoft, contrato con el Pentágono, y la marca más reconocida en inteligencia artificial. Si esto fuera una competencia de recursos, ya habría ganado.
Pero no ganó. En enterprise, el mercado donde se paga de verdad, Anthropic le arrebató el liderazgo. Pasó de 24% a 40% del gasto corporativo en LLMs mientras OpenAI caía del 50% al 27%, según datos de Menlo Ventures. Y lo hizo con menos dinero, menos productos y menos ruido.
La explicación fácil es que OpenAI “perdió el foco”. La real es más incómoda: OpenAI apostó a que ganar la carrera de modelos era suficiente. No lo fue. Porque la carrera de modelos ya terminó. Y lo que viene después tiene poco que ver con tecnología.
La carrera que ya nadie puede ganar
Media docena de laboratorios tienen hoy modelos de frontera con capacidades equivalentes. OpenAI, Anthropic, Google, Meta, Mistral y DeepSeek se superan entre sí cada pocas semanas en los benchmarks. Uno lidera en razonamiento, otro en código, otro en velocidad. La ventaja dura un par de meses. A veces menos.
Benedict Evans lo puso en términos crudos en febrero: no existe ningún mecanismo conocido por el cual una empresa pueda construir una ventaja en modelos que las demás no puedan igualar. No hay network effects. Si inventas un producto brillante usando IA generativa, llamas a la API de un modelo en la nube y al usuario le da igual cuál usaste. Nadie que use Instagram se pregunta si corre en AWS o Google Cloud.
Esto tiene una consecuencia que muchos ejecutivos todavía no internalizan: apostar tu estrategia de IA a que un modelo específico va a ser “el ganador” es como haber apostado en 2005 a que un navegador web específico iba a dominar internet. Los navegadores resultaron ser un input box y un output box que nadie pudo diferenciar. Los chatbots de hoy tienen exactamente el mismo problema.
900 millones de usuarios que no saben para qué volvieron
OpenAI reportó 900 millones de usuarios semanales en febrero de 2026. Duplicó la cifra en un año. Si miras solo ese número, parece imparable.
Ahora mira debajo. El 80% de esos usuarios envió menos de mil mensajes en todo 2025. Menos de tres prompts al día en promedio. Solo el 5% paga. La propia OpenAI reconoce un “capability gap” entre lo que sus modelos pueden hacer y lo que la gente hace con ellos. Evans traduce eso sin rodeos: no tienen product-market fit.
Mientras tanto, la lista de productos creció sin parar. Sora para video. Un navegador llamado Atlas. Un dispositivo de hardware con Jony Ive. Features de e-commerce dentro de ChatGPT. Una red social de videos cortos. Cada uno interesante por separado. Juntos, incoherentes. Fidji Simo, la CEO de aplicaciones de OpenAI, le dijo a sus equipos en una reunión interna que la empresa no podía seguir “distraída con side quests”. Ahora están consolidando todo en un superapp de escritorio: ChatGPT, Codex y Atlas bajo un mismo techo.
Pero ese movimiento delata el problema de fondo. OpenAI se comportó durante 18 meses como un laboratorio de investigación con cuenta de Twitter: cada vez que los investigadores lograban algo nuevo, el equipo de producto recibía un mail preguntando cómo convertirlo en un botón. La estrategia la definía la investigación, no el mercado. Altman lo sabe. Por eso contrató a Simo (ex CEO de Instacart) para intentar girar hacia una cultura product-first. La pregunta es si la inercia de un laboratorio que lleva años funcionando así se puede revertir con un cambio de organigramas y un rebrand del equipo de producto a “AGI Deployment”.
Distribución sin engagement es una métrica de vanidad. Cualquier CEO en Latinoamérica que haya lanzado una app con millones de descargas y cero retención reconoce este patrón.
La empresa que ganó haciendo menos
Anthropic no hizo video. No lanzó un browser. No anunció hardware. No metió features de shopping en su chatbot. No levantó la ronda más grande de la historia.
Lo que hizo fue elegir un problema: ayudar a developers y empresas a escribir y ejecutar código con IA. Y cavó trinchera ahí hasta que nadie más pudo sacarla.
Claude Code se convirtió en la herramienta que los ingenieros no pueden soltar. En Silicon Valley empezaron a hablar de “Claude benders”, sesiones de programación de horas donde el developer trabaja codo a codo con el modelo. Esa adicción no viene de un benchmark. Viene de que la herramienta resuelve un problema real, todos los días, en el flujo de trabajo donde vive el usuario. Anthropic no inventó una categoría nueva ni pidió que cambiaras tus hábitos. Se metió en el hábito que ya tenías y lo hizo mejor.
Los números son difíciles de ignorar. Anthropic captura hoy el 40% del gasto enterprise en modelos de lenguaje. En licitaciones directas por nuevos clientes enterprise, gana el 70% de las veces. Su ARR pasó de mil millones de dólares en diciembre de 2024 a 19 mil millones en marzo de 2026. Quince meses. Claude Code por sí solo genera $2.5 mil millones en run-rate revenue, cifra que se duplicó desde enero.
Hay algo casi anticuado en la estrategia de Anthropic. No es disruptiva. No es visionaria. Es una empresa que eligió a quién servir, entendió qué necesitaba ese cliente, y ejecutó con una disciplina que la mayoría de los startups abandona en el momento que consigue financiamiento.
La lección no es de IA. Es de estrategia.
Lo que está pasando entre OpenAI y Anthropic no es una historia de tecnología. Es una historia que Michael Porter podría haber escrito hace cuarenta años.
En mercados donde no hay network effects, donde el cliente puede cambiar de proveedor sin perder nada, el ganador no es el que tiene más recursos. Es el que resuelve mejor un problema específico para un cliente específico. Porter lo llamaba “trade-offs estratégicos”: elegir qué no hacer es tan importante como elegir qué hacer. OpenAI eligió no elegir. Anthropic eligió developers y enterprise, y dijo que no a todo lo demás.
Altman quiere que OpenAI sea el AWS de la IA. Chips, infraestructura, modelos, aplicaciones, ecosistema. Todo. El diagrama que mostró a fines del año pasado es una versión casi textual del stack de Apple o Microsoft. Citó a Bill Gates: “una plataforma crea más valor para sus socios que para sí misma”.
El problema es que OpenAI no tiene ninguna de las dinámicas que hicieron funcionar a esas plataformas. Windows tenía network effects reales: los developers necesitaban a Windows porque ahí estaban los usuarios, y los usuarios necesitaban Windows porque ahí estaban las apps. iOS tenía lo mismo. OpenAI no tiene eso. Si un developer construye algo con GPT-5, puede migrarlo a Claude o Gemini en una tarde. No hay lock-in. No hay ecosistema que se refuerce solo. Evans lo compara con TSMC: puedes fabricar los mejores chips del mundo y aun así no tener ningún poder sobre lo que se construye con ellos.
El CFO de OpenAI publicó un diagrama que supuestamente muestra un flywheel entre capex y revenue. Evans observó que una relación 1:1 entre lo que gastas y lo que facturas no es un flywheel. Es una caminadora.
El espejo que LATAM no quiere mirar
Un estudio del MIT Media Lab publicado en 2025 analizó 300 deployments de IA generativa en empresas, entrevistó a 150 líderes y encuestó a 350 empleados. La conclusión: el 95% de los pilotos de IA generativa no generan impacto medible en el P&L. No el 50%. No el 70%. El noventa y cinco por ciento.
Y la razón no es la tecnología. Los modelos funcionan. Lo que falla es cómo se implementan. Las empresas intentan forzar la IA en procesos existentes sin adaptar nada. Lanzan pilotos ambiciosos que tocan demasiadas áreas a la vez. Construyen internamente en lugar de asociarse con proveedores especializados. Y cuando construyen, fracasan el doble. El reporte lo dice con una claridad que debería estar pegada en la pared de toda sala de directorio: las empresas que tienen éxito eligen un pain point, ejecutan bien y se asocian con quien ya resolvió el problema.
BCG encontró lo mismo desde otro ángulo: las empresas que se enfocan en un promedio de 3.5 casos de uso generan 2.1 veces más retorno que las que persiguen 6 o más. La diferencia entre el grupo que saca valor de la IA y el que no no es presupuesto, ni talento, ni acceso a modelos. Es disciplina para elegir dónde poner la energía.
Esto debería encender alarmas en Latinoamérica. La región atrae apenas el 1.1% de la inversión global en IA según CEPAL, pero representa el 6.6% del PIB mundial. No hay margen para desperdiciar lo poco que se invierte en proyectos ambiguos. Y sin embargo, un estudio de Google Cloud y R/GA de 2026 encontró que el 80% de las plataformas de e-commerce en la región tienen deficiencias críticas en adopción de IA. No por falta de ganas. Por exceso de complejidad y falta de foco.
Llevo más de 25 años emprendiendo en tecnología en la región. Lo he visto con transformación digital, con mobile, con cloud, y ahora lo estoy viendo con IA: cada vez que una empresa intenta hacer algo muy sofisticado, con muchas aristas y muchos frentes abiertos, el camino se vuelve inmanejable. Cuando hay foco (un problema, un equipo, una métrica) es más fácil ejecutar y más fácil medir si está funcionando. OpenAI está aprendiendo esa lección con la ronda más grande en la historia del venture capital. La pregunta es si los CEOs en LATAM la van a aprender antes o después de quemar su presupuesto de IA.
La era del modelo terminó. No porque los modelos dejaron de importar, sino porque dejaron de ser el diferenciador. Todos son buenos. Todos van a seguir mejorando.
La pregunta que importa ahora no es “qué modelo uso”. Es “qué problema resuelvo, para quién, y cómo mido si lo resolví”. Anthropic le ganó mercado a OpenAI respondiendo eso con dos palabras: código, para developers.
Empezó la era del problema.

