OpenAI no está construyendo software. Está construyendo un sistema operativo
Reflexiones y aprendizajes de mi participación en la OpenAI DevDay 2025
La semana pasada estuve en San Francisco, sentado entre más de 1.500 desarrolladores que habían viajado desde todos los rincones del mundo para asistir al OpenAI DevDay 2025. Sam Altman subió al escenario y comenzó con los números que ya se han vuelto rituales en estas presentaciones: de 2 millones de desarrolladores en 2023 a 4 millones hoy. De 100 millones de usuarios semanales de ChatGPT a más de 800 millones. De 200 millones de tokens por minuto procesados en la API a 6 mil millones.
Los números son impresionantes, pero no son la historia real. Mientras escuchaba cada anuncio, cada demo, cada “one more thing”, comencé a entender algo que no había captado completamente hasta ese momento: no estaba viendo una conferencia de producto. Estaba presenciando la declaración formal de una nueva plataforma. No estaba viendo mejoras incrementales a un chatbot. Estaba viendo la construcción deliberada de un sistema operativo.
Los anuncios: mucho más que features
Déjame llevarte a través de lo que se anunció ese día, porque cada pieza cuenta una historia más grande cuando las ves juntas.
Apps en ChatGPT fue quizás el anuncio más revelador. Ya no se trata solo de que ChatGPT pueda ayudarte a pensar o escribir. Ahora, Expedia, Figma, Canva, Spotify, Uber y DoorDash están integrados directamente dentro de ChatGPT. Pronto se sumarán OpenTable y Target. ¿Qué significa esto realmente? Que ChatGPT dejó de ser un destino para convertirse en un intermediario obligatorio entre tú y el resto del mundo digital.
Junto con esto llegó el Apps SDK, un toolkit completo para que developers construyan aplicaciones que vivan dentro de ChatGPT. Si entrecierras los ojos, se parece sospechosamente a lo que Apple hizo en 2008 cuando abrió el App Store e invitó a desarrolladores a construir sobre iOS. OpenAI está diciendo: “vengan, construyan aquí, este es su nuevo hogar”.
Codex, el agente de código de OpenAI, pasó de beta a disponibilidad general. Las cifras que compartieron son brutales: 70% de mejoras en productividad. Pero lo más interesante no son los números, sino lo que representan. OpenAI ha estado usando Codex internamente de forma masiva (lo que en la jerga se llama “dogfooding”) para construir sus propios productos más rápido. Durante el evento mostraron cómo construyeron herramientas completas en 48 horas usando Codex. Es una máquina que se alimenta a sí misma: usan IA para construir IA más rápido.
Sora 2 en la API y GPT-5 Pro en la API ponen las capacidades más avanzadas de generación de video y el modelo más potente de OpenAI en manos de cualquier desarrollador. Es la democratización de capacidades que hace seis meses parecían ciencia ficción. Y por si fuera poco, lanzaron gpt-realtime-mini y gpt-image-1-mini, versiones más baratas y especializadas de sus modelos para casos de uso específicos.
Cada anuncio individualmente parece un feature. Una mejora. Una actualización. Pero cuando los ves juntos, cuando conectas los puntos, revelan algo mucho más ambicioso: no están mejorando un producto. Están construyendo la arquitectura de un sistema operativo.
De endpoint a gateway: la transformación fundamental
Para entender completamente lo que está pasando, vale la pena leer este interesante artículo de Saanya Ojha que captura perfectamente la transformación que estamos presenciando.
Hasta hace poco, ChatGPT era lo que se llama un “endpoint”: un destino final. Le preguntabas algo, te respondía, y la interacción terminaba ahí. Era una herramienta pasiva que te ayudaba a pensar. Útil, sí. Transformadora, también. Pero limitada en su alcance.
Ahora, ChatGPT se está convirtiendo en un “gateway”: una puerta de entrada, un intermediario, una capa que se sitúa entre tú y todo lo demás que haces en el mundo digital. Y aquí está la frase que lo cambia todo: cuando reservas un vuelo, ChatGPT decide qué app de viajes recibe la llamada. Cuando pides comida, ChatGPT decide qué servicio se usa.
Deja que eso se asiente por un momento. No es que te ayude a decidir. Es que decide por ti.
La evolución de las superficies de control
La historia de la tecnología es, en muchos sentidos, la historia de quién controla la superficie donde comienza la intención del usuario. Cada era tecnológica ha tenido su propia superficie de control dominante.
Apple controló la pantalla de inicio. Cuando Steve Jobs presentó el iPhone, cambió fundamentalmente cómo interactuamos con la tecnología. La pregunta clave se convirtió en: ¿qué ves cuando desbloqueas tu teléfono? El poder residía en curar ese menú de íconos, en decidir qué aplicaciones merecían un lugar en esa rejilla preciosa de espacio limitado.
Google controló la barra de búsqueda. Antes del iPhone, y todavía hoy para muchas tareas, Google definió cómo descubrimos información en internet. La pregunta era: ¿qué encuentras cuando buscas? El poder estaba en ordenar el inventario infinito de la web, en decidir qué resultado aparece primero, segundo, o en la página 47 donde nadie mira.
Amazon controló el botón de compra. Jeff Bezos entendió que la fricción es el enemigo del comercio. La pregunta se convirtió en: ¿qué compras con un solo click? El poder estaba en facilitar la conversión, en hacer que comprar fuera tan ridículamente fácil que la decisión de compra se volviera casi inconsciente.
OpenAI está intentando controlar la conversación. Y aquí es donde la cosa se pone realmente interesante. La pregunta ahora es: ¿qué pasa cuando expresas una necesidad? Ya no navegas por internet (metáfora espacial). Ya no buscas (metáfora de exploración). Ahora conversas (metáfora de delegación). Le dices al sistema “tengo hambre” y el sistema se encarga del resto.
Las aplicaciones y servicios que solían ser destinos ahora se convierten en infraestructura invisible. Las marcas que solían construirse durante décadas se vuelven commodities intercambiables. Las relaciones directas entre empresas y clientes se transforman en relaciones mediadas por la IA.
Agregar intención: el momento antes de la acción
Pero hay algo aún más profundo sucediendo aquí. Cada era tecnológica no solo cambió la interfaz, sino que agregó algo diferente.
Google agregó links. El objeto que estaba agregando era información que ya existía. El momento de la interacción era cuando ya sabías qué estabas buscando. El valor estaba en organizar el conocimiento del mundo. Era esencialmente un bibliotecario digital increíblemente eficiente.
Apple agregó apps. El objeto eran funcionalidades empaquetadas. El momento era cuando ya sabías qué herramienta necesitabas. El valor estaba en curar y distribuir software. Era como un centro comercial de aplicaciones.
Amazon agregó transacciones. El objeto eran productos más el proceso de compra. El momento era cuando ya sabías qué querías comprar. El valor estaba en eliminar toda fricción del comercio. Era hacer que comprar fuera más fácil que no comprar.
OpenAI está agregando intención. Y esto es radicalmente diferente. El objeto que agrega es el deseo antes de que tome forma específica. El momento de la interacción es cuando solo sabes qué quieres lograr, no cómo hacerlo. El valor está en traducir necesidad vaga en acción concreta.
Es capturar la intención en su forma más primitiva, antes de que se cristalice en una búsqueda específica, antes de que elijas una app particular, antes de que identifiques un producto concreto.
Piénsalo con un ejemplo simple. Tienes hambre. En el modelo antiguo: tú decides que quieres pizza, tú eliges la app de Domino’s, tú ordenas. Tú controlas cada paso. En el modelo nuevo: expresas “tengo hambre”, la IA decide entre pizza, sushi o cocinar, la IA elige qué restaurante, la IA ejecuta la orden. La IA controla tres de los cuatro pasos. Tú solo expresaste la necesidad inicial.
Y aquí está la frase que resume todo esto perfectamente: “If Google indexed the web, OpenAI is beginning to index the economy.”
De indexar la web a indexar la economía
Esta frase de Saanya Ojha es tan brillante que merece que nos detengamos en ella un momento.
Google indexó la web. Catalogó páginas, contenido, conocimiento. Su poder residía en controlar qué información encuentras. Su output era conocimiento. Era, fundamentalmente, un sistema de lectura del mundo: read-only.
OpenAI está indexando la economía. Cataloga servicios, transacciones, capacidades reales. Su poder reside en controlar qué acciones se ejecutan. Su output es acción en el mundo real. Es, fundamentalmente, un sistema de lectura y escritura: read-write.
Google te ayudaba a saber. OpenAI te ayuda a hacer.
Google era un mapa. OpenAI es un agente.
Google movía bits. OpenAI mueve átomos: comida real que llega a tu puerta, autos reales que te recogen, dinero real que cambia de manos, reservaciones reales en restaurantes reales.
Las implicaciones de esto son simultáneamente fascinantes y aterradoras. Cuando Google te mostraba información incorrecta, era molesto pero raramente catastrófico. Cuando OpenAI ejecuta la acción incorrecta en tu nombre, puedes perder dinero, vuelos, citas médicas. El riesgo y la responsabilidad son de otro orden de magnitud.
Y surge una pregunta inevitable: ¿cómo decide OpenAI qué servicio usar? ¿Precio? ¿Calidad? ¿Comisión que le pagan? ¿Es transparente ese proceso? ¿Es auditable?
La jugada vertical: controlarlo todo
Mientras procesaba todo esto en mi cabeza durante DevDay, recordé una confesión pública que Sam Altman hizo recientemente: “I was always against vertical integration. I now think I was just wrong about that.”
Esta es una admisión importante viniendo de alguien que creció en Silicon Valley, donde la sabiduría convencional durante años fue que la especialización y la modularidad eran el camino al éxito. Pero Altman ahora argumenta que la complejidad y la escala de construir AGI demandan un control end-to-end, similar a lo que Apple logró con el iPhone.
Y cuando miras lo que OpenAI está construyendo, ves exactamente esa estrategia de integración vertical desplegándose en tiempo real, capa por capa.
En la capa de hardware, OpenAI anunció un acuerdo masivo con Broadcom para desplegar 10 gigawatts de chips de IA diseñados específicamente por OpenAI. Estos chips están optimizados para inferencia y se espera que sean aproximadamente 30% más baratos que las opciones actuales de GPU. También tienen acuerdos con AMD para 6 gigawatts adicionales de GPUs. La estrategia es clara: “control the silicon, control the experience”, como dijo MacKenzie Sigalos de CNBC.
En la capa de infraestructura, OpenAI está construyendo y operando datacenters masivos. Tienen acuerdos con Nvidia, Oracle, y están liderando la iniciativa Stargate junto con Samsung y SK. La ambición es controlar todo el flujo, como dijo Altman, “from electrons to model distribution”.
En la capa de modelos, OpenAI mantiene su investigación completamente in-house. GPT-5, Sora 2, Codex: todo desarrollado internamente con algunos de los mejores investigadores en IA del mundo.
En la capa de plataforma de desarrollo, ahora tienen AgentKit, Apps SDK, ChatKit, herramientas de evaluación, conectores. Es todo lo que necesitas para construir sobre OpenAI. Es su “developer moat”: mientras más desarrolladores construyen sobre sus herramientas, más dependiente se vuelve el ecosistema.
En la capa de aplicaciones, ChatGPT funciona tanto como consumer app con 800 millones de usuarios semanales, como la plataforma donde viven otras aplicaciones a través del GPT Store y las nuevas integraciones directas con Uber, Spotify, y demás.
Y finalmente, en la capa de hardware de usuario, OpenAI adquirió io, la startup de dispositivos de IA de Jony Ive, por 6.4 mil millones de dólares. Quieren controlar también la interfaz física a través de la cual interactúas con su IA.
Es una integración vertical completa, desde el silicio en el datacenter hasta el dispositivo en tu bolsillo, desde los electrones hasta la conversación que tienes con la IA. Es un stack completamente integrado diseñado para funcionar como una sola máquina coordinada.
Lo que cambia para todos
Esta transformación tiene implicaciones para prácticamente todos los actores en el ecosistema tecnológico.
Para los desarrolladores, surge una paradoja incómoda. Cuando OpenAI era solo una API, los developers eran claramente clientes. Pagaban por tokens, construían productos, mantenían la relación con sus usuarios. Ahora que OpenAI se está convirtiendo en una plataforma, los developers empiezan a parecerse más a contenido que a clientes. Es la pregunta que todo desarrollador del App Store se hizo en 2010 y que sigue resonando hoy: ¿cuánto falta para que OpenAI clone mi feature y lo ofrezca gratis como parte de ChatGPT?
Pero también hay un lado positivo innegable. OpenAI está resolviendo problemas de infraestructura que antes cada developer tenía que resolver por su cuenta: manejo de contexto, llamadas a múltiples funciones, evaluaciones, conexiones a fuentes de datos. Están facilitando construir cosas que antes eran casi imposibles para equipos pequeños.
Para las empresas, el cambio es aún más dramático. Compañías que invirtieron décadas construyendo marcas reconocibles se encuentran repentinamente en riesgo de volverse commodities intercambiables. Si ChatGPT decide entre Uber y Lyft por ti, ¿realmente importa cuál uses? ¿Cuánto vale tu marca cuando el usuario nunca ve tu interfaz?
Las empresas pasan de ser destinos a ser lo que el artículo de Saanya llama “nodos de cumplimiento”. Ya no tienes una relación directa con el cliente. Ahora eres un proveedor de backend que cumple órdenes que vienen filtradas a través de la IA. Y surge una pregunta inquietante: ¿cómo te aseguras de ser “indexable” por la IA? ¿Cuál es el nuevo SEO en un mundo donde la IA decide?
Para los consumidores, el trade-off es clásico pero intensificado. Por un lado, conveniencia extrema. Ya no necesitas recordar qué app usar para qué. Ya no necesitas comparar precios manualmente. Ya no necesitas navegar múltiples interfaces. Solo hablas y las cosas suceden. Es magia.
Por otro lado, estás delegando no solo la ejecución sino la decisión misma. Estás confiando en que la IA elige el mejor servicio para ti, no el que le paga más comisión. Estás confiando en que entiende tu intención correctamente. Estás confiando en que no hay conflictos de interés en su proceso de decisión. Y no está claro qué tan transparente o auditable es ese proceso.
Para los competidores de OpenAI, la presión acaba de aumentar dramáticamente. Google tiene que responder integrando Gemini más profundamente con Search y todos sus servicios. Apple tiene que acelerar la transformación de Siri y aprovechar su control del hardware con App Intents. Meta, Microsoft, Anthropic, todos tienen que decidir si intentan replicar este modelo de integración vertical o si se especializan en alguna capa específica del stack.
Y surge la pregunta fundamental: ¿habrá espacio para múltiples “sistemas operativos de intención” o es esto un mercado de winner-takes-all? ¿Tendremos que elegir nuestro “OS de IA” como elegimos entre iOS y Android? ¿O la naturaleza de la conversación como interfaz significa que la mayoría de la gente solo usará uno?
Las preguntas sin respuesta
Salí de Fort Mason ese día con la certeza de que había presenciado algo histórico. La declaración pública de una nueva era en computación. El momento en que una empresa de IA dejó de ser un proveedor de modelos para convertirse en una plataforma completa.
Pero también salí con preguntas. Muchas preguntas.
¿Es la conversación realmente “la última interfaz”? ¿O es solo la siguiente en una secuencia infinita? Después de íconos, ventanas, búsquedas y apps, ¿llegamos finalmente a la delegación total, o vendrá algo más? ¿Qué sigue después de conversar? ¿Pensar? ¿Interfaces cerebro-computadora?
¿Puede un solo agente indexar toda la economía? O más precisamente, ¿debe poder hacerlo? ¿Queremos vivir en un mundo donde toda transacción económica pasa por un único sistema operativo? ¿Qué significa eso para competencia, innovación, resiliencia del sistema?
¿La integración vertical es la ventaja competitiva definitiva o un riesgo regulatorio esperando a explotar? Los gobiernos apenas están empezando a entender cómo regular la IA generativa. ¿Qué pasará cuando vean que una sola empresa controla el stack completo desde chips hasta conversaciones?
¿Cómo se auditan las “decisiones” que la IA toma en tu nombre? Cuando ChatGPT decide usar Uber en lugar de Lyft, ¿bajo qué criterio lo hizo? ¿Puedes verlo? ¿Puedes cuestionarlo? ¿Puedes cambiarlo?
OpenAI está construyendo un futuro donde la conversación es la interfaz universal, donde expresas tu intención y el sistema se encarga del resto, donde el mundo digital entero existe downstream de tu interacción con la IA. Es un futuro tremendamente conveniente, eficiente, casi mágico.
Pero también es un futuro donde un poder sin precedentes se concentra en quien controla esa conversación. Y esa concentración de poder merece que nos detengamos a pensar, a cuestionar, a debatir antes de que se vuelva inevitable.
La apuesta de OpenAI es clara: la conversación será la última interfaz. Están construyendo ese mundo. Y lo están construyendo muy rápido.
La pregunta es: ¿es el mundo que queremos?


Fascinating, I totally agree that OpenAI is building more than just a chatbot; how do you think this shift to an OS will impact smaller developers trying to break into the AI spce, such a clear-eyed take on the future of tech!