La Serpiente que Se Digiere: Cómo Nvidia y OpenAI Rediseñan el AI Stack
Como se están consolidando las capas del Nuevo AI Stack y sus implicancias tecnológicas y competitivas
Saanya Ojha lo llamó “el ouroboros financiero” - la serpiente antigua que se muerde su propia cola. Nvidia invierte $100 mil millones en OpenAI, quien usa ese dinero para comprar chips de Nvidia, quien se valoriza por esa demanda, quien invierte más en OpenAI. El dinero rota entre las mismas tres empresas: Nvidia, OpenAI, Oracle.
Pero aquí está el problema: esta serpiente no solo se muerde la cola. Se está digiriendo a sí misma. Y lo que queda después de la digestión no es un círculo financiero, es una nueva arquitectura de control del AI Stack que cambia todo.
El Stack que Describí Hace Seis Semanas
En agosto escribí sobre el AI Stack, describiendo cómo se estructura el ecosistema de inteligencia artificial en cinco capas fundamentales: semiconductores en la base, seguidos por infraestructura en la nube, modelos fundacionales, una capa emergente de orquestación agéntica, y aplicaciones en la superficie.
Mi argumento era directo: las mejores oportunidades para emprendedores están en la capa de aplicaciones. No porque las otras capas no sean importantes, sino porque ya están dominadas por gigantes con recursos prácticamente ilimitados. Las barreras de entrada en semiconductores o cloud son extraordinariamente altas, requiriendo inversiones de miles de millones de dólares.
La lógica económica era simple: las aplicaciones deben generar suficiente valor para pagar por toda la infraestructura subyacente. Casi por definición, las mayores oportunidades tienen que estar donde el valor finalmente llega a los usuarios finales.
No estaba haciendo una predicción sobre el futuro. Estaba describiendo la realidad del ecosistema tal como existía. Pero seis semanas después, esa realidad acaba de intensificarse de forma dramática.
Los Números Reales del Deal
Los titulares se enfocaron en los $100 mil millones de inversión de Nvidia en OpenAI. Pero como señaló Saanya, esa no es la historia principal. La historia real es que OpenAI planea desplegar 10 gigavatios de sistemas de Nvidia para su infraestructura.
Para poner eso en perspectiva: 10GW es aproximadamente la mitad de toda la generación eléctrica de escala industrial añadida en Estados Unidos en el primer semestre de 2025. O, si prefieres, el equivalente a 10 plantas nucleares - todas dedicadas a inteligencia artificial.
Esa escala se traduce en aproximadamente 4-5 millones de GPUs, básicamente la producción completa de Nvidia para este año y el doble de los envíos del año pasado.
Pero aquí está lo que pocos están discutiendo: la inversión total se estima en aproximadamente $500 mil millones. Jensen Huang mencionó en agosto que construir un gigavatio de capacidad de centro de datos cuesta entre $50 y $60 mil millones, de los cuales aproximadamente $35 mil millones son para chips y sistemas de Nvidia. Multiplicado por 10 gigavatios, estamos hablando de un proyecto que podría requerir medio billón de dólares en infraestructura total.
Y aquí está el giro: OpenAI planea arrendar los procesadores de Nvidia en lugar de comprarlos directamente, distribuyendo los costos a lo largo de la vida útil de las GPUs, que podría ser hasta cinco años. Nvidia está parcialmente financiando sus propias ventas.
Y el consumo energético de esta infraestructura será equivalente a suministrar electricidad a más de 8 millones de hogares estadounidenses.
Del DGX-1 al Control Vertical
Hay una historia dentro de esta historia que Jensen Huang menciona pero que pocos están conectando: en agosto de 2016, cuando OpenAI era todavía una fundación sin ánimo de lucro, Jensen caminó personalmente hasta sus oficinas en San Francisco y entregó el primer servidor DGX-1.
Ese servidor redujo el tiempo de entrenamiento de modelos de seis días a solo dos horas. Fue el momento en que quedó claro que el acceso al poder de cómputo sería el recurso estratégico de la era de la inteligencia artificial.
Nueve años después, la misma dupla anuncia el acuerdo de infraestructura de IA más grande de la historia.
Más Allá del Ouroboros: Arquitectura de Control
Saanya tiene razón en que el círculo financiero parece una burbuja a primera vista. Capital rotando entre los mismos jugadores, inflando valoraciones mutuas, recordando a las startups del dot-com que se vendían publicidad entre ellas.
Pero hay una diferencia fundamental: esta vez están construyendo infraestructura física irreversible. Los chips de Nvidia son reales. Los centros de datos de Oracle se están construyendo en concreto. Los modelos de OpenAI están procesando consultas para 700 millones de personas cada semana.
El problema no es que nada se esté construyendo. El problema es qué tipo de estructura de poder se está construyendo.
Para Nvidia: Más Allá de Vender Picotas y Palas
Durante años, Nvidia ha sido el “proveedor de picotas y palas” de la fiebre del oro de la IA. Pero este acuerdo cambia fundamentalmente su posición:
Lock-in del cliente más grande: Con más de 700 millones de usuarios semanales, OpenAI es uno de los mayores consumidores de GPUs del mundo. Invertir capital asegura que no migre a arquitecturas alternativas (AMD, Intel o diseños propios).
Captura de valor en múltiples capas: Nvidia ya no solo vende hardware. Ahora co-posee el software que corre sobre ese hardware, capturando valor en dos capas del stack simultáneamente.
Bloqueo competitivo: Como señalan analistas de competencia, la inversión puede crear incentivos para priorizar a OpenAI con mejores términos o acceso más rápido a GPUs de siguiente generación, dificultando que rivales como AMD accedan a recursos esenciales.
Para OpenAI: Independencia y Dependencia
El acuerdo le proporciona a OpenAI acceso garantizado a la escala de cómputo que necesita para su camino hacia la superinteligencia. Sam Altman insiste en que “todo comienza con el cómputo” y que la infraestructura será la base de la economía del futuro.
También reduce su dependencia de Microsoft, que tiene derechos sobre el 49% de los beneficios futuros de OpenAI una vez que recupere su inversión de $13 mil millones (actualmente OpenAI aún opera con pérdidas). La diversificación de fuentes de capital facilita la transformación de OpenAI en una entidad con fines de lucro.
Pero hay un costo: OpenAI queda tecnológicamente atada a Nvidia por décadas. Si aparece una arquitectura de chips superior, si los diseños de AMD superan a Nvidia, si los TPUs de Google demuestran ser más eficientes para ciertos workloads - OpenAI tendría dificultades significativas para pivotear. Ha comprometido una parte sustancial de su futuro tecnológico a un único proveedor de hardware, aunque Altman claramente considera que los beneficios de escala y acceso garantizado justifican este riesgo.
Lo Que Esto Significa Para el AI Stack
Cuando analicé las cinco capas del AI Stack en agosto, argumenté que las capas inferiores - semiconductores, cloud, modelos fundacionales - estaban dominadas por gigantes con barreras de entrada extraordinariamente altas.
Este acuerdo no solo confirma esa observación. La intensifica.
Las capas inferiores del stack no solo están dominadas por gigantes. Ahora esos gigantes se están fusionando verticalmente de formas que hacen que la competencia sea estructuralmente más difícil.
Para los emprendedores, esto refuerza la tesis original: no compitan en las capas inferiores. Las barreras de entrada acaban de subir otro orden de magnitud. Si necesitabas miles de millones antes, ahora necesitas cientos de miles de millones y una relación preferencial con uno de los tres proveedores dominantes.
Pero hay una complicación nueva: ¿qué significa este nivel de consolidación para el poder de negociación de las aplicaciones?
La ecuación económica que describí sigue siendo válida - las aplicaciones deben generar suficiente valor para pagar por toda la infraestructura. Pero cuando la infraestructura está tan concentrada, cuando tres empresas controlan efectivamente el acceso al cómputo, ¿cambia el balance de poder?
Es una pregunta sin respuesta clara todavía. Pero es la pregunta correcta para cualquier emprendedor construyendo en la capa de aplicaciones.
Los Riesgos Que Nadie Está Discutiendo
La estructura de este deal plantea interrogantes que van más allá del entusiasmo inicial del mercado.
Financieramente, la circularidad del capital es preocupante. Nvidia invierte $100 mil millones que esencialmente regresan como compras de chips. Si OpenAI no puede generar los ingresos reales para sostener esto - más allá del dinero que Nvidia le está proporcionando - las valoraciones interdependientes podrían colapsar en cadena.
Estratégicamente, el nivel de lock-in es significativo. OpenAI ha comprometido una parte importante de su infraestructura tecnológica a Nvidia por décadas. Como advierte Kim Forrest de Bokeh Capital, la estrecha vinculación puede crear “miopía” y abrir la puerta a que otros fabricantes seduzcan a clientes de Nvidia.
Y desde una perspectiva de ecosistema, aunque la administración Trump ha tomado un enfoque más laxo en temas de competencia comparado con la administración Biden, el Departamento de Justicia y la FTC ya acordaron en 2024 repartirse las investigaciones potenciales de Microsoft, OpenAI y Nvidia. Este acuerdo podría eventualmente enfrentar escrutinio antimonopolio.
El Contexto Más Amplio: Stargate y la Carrera por la Infraestructura
Este acuerdo no existe en aislamiento. Es parte del proyecto Stargate, una iniciativa de $500 mil millones impulsada por OpenAI, Oracle y SoftBank para crear los mayores centros de IA del mundo. OpenAI ya ha firmado con Oracle un contrato de $300 mil millones en capacidad de cómputo para los próximos cinco años.
Y Nvidia no está poniendo todos sus huevos en una sola canasta. Una semana antes del anuncio con OpenAI, invirtió $5 mil millones en Intel, adquiriendo aproximadamente el 4% de la compañía. Jensen Huang describió la colaboración como una fusión de “dos plataformas de clase mundial” que integrará la pila de aceleración de Nvidia con los CPUs x86 de Intel.
Estamos presenciando el surgimiento de un nuevo tipo de ecosistema: no solo vertical, sino entrelazado. Donde los proveedores de hardware invierten en software, los proveedores de software contratan cloud masivo, y los proveedores de cloud compran hardware en cantidades sin precedentes.
La Oportunidad Sigue Estando en las Aplicaciones (Pero el Juego Cambió)
Seis semanas después de analizar el AI Stack, mi tesis fundamental se mantiene: las mejores oportunidades para la mayoría de emprendedores están en la capa de aplicaciones.
No porque las otras capas no sean importantes, sino porque son ahora estructuralmente inaccesibles para cualquiera que no sea un gigante tecnológico con cientos de miles de millones en capital.
Pero el contexto ha cambiado. Las aplicaciones ya no solo compiten contra otras aplicaciones. Ahora deben navegar un stack donde las capas inferiores están más concentradas, más verticalmente integradas, y potencialmente más capaces de extraer valor.
La paradoja es que esto podría fortalecer a las aplicaciones verdaderamente diferenciadas. Si el acceso al cómputo se vuelve commodity (aunque caro), la ventaja competitiva se desplaza aún más hacia el conocimiento del dominio, la experiencia de usuario, y los datos propietarios que se generan a través del uso.
Las aplicaciones más defensibles serán aquellas que generen y refinen datos únicos que mejoren su rendimiento. Esto crea un ciclo virtuoso donde más uso lleva a mejor rendimiento, lo cual atrae más usuarios.
La Serpiente Digiere
La metáfora del ouroboros financiero es brillante, pero incompleta. Sí, el dinero rota entre las mismas empresas. Sí, parece circular y potencialmente insostenible.
Pero lo que estamos presenciando no es solo dinero mordiéndose la cola. Es la digestión de todo un ecosistema tecnológico en una nueva forma de organización industrial.
Cuando la serpiente termina de digerirse, lo que queda no es un círculo. Es una estructura jerárquica de control sobre las capas fundamentales del AI Stack.
Para los emprendedores, el mensaje es claro: construyan en las aplicaciones, pero entiendan la arquitectura de poder que sustenta su trabajo. El stack que describí en agosto sigue siendo relevante. Pero ahora sabemos que no son solo capas técnicas - son capas de control económico y estratégico.
Y esas capas acaban de consolidarse de formas que nadie anticipó hace seis semanas.

