<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[La Última Interfaz]]></title><description><![CDATA[Emprendimiento, AI y la tecnología del futuro]]></description><link>https://www.laultimainterfaz.com</link><image><url>https://substackcdn.com/image/fetch/$s_!R_uI!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Faf24f74e-1605-4f29-a2c0-d8dd8df190d4_1024x1024.png</url><title>La Última Interfaz</title><link>https://www.laultimainterfaz.com</link></image><generator>Substack</generator><lastBuildDate>Mon, 20 Apr 2026 00:34:42 GMT</lastBuildDate><atom:link href="https://www.laultimainterfaz.com/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[Francisco Sandoval]]></copyright><language><![CDATA[es]]></language><webMaster><![CDATA[frasa@substack.com]]></webMaster><itunes:owner><itunes:email><![CDATA[frasa@substack.com]]></itunes:email><itunes:name><![CDATA[Francisco Sandoval]]></itunes:name></itunes:owner><itunes:author><![CDATA[Francisco Sandoval]]></itunes:author><googleplay:owner><![CDATA[frasa@substack.com]]></googleplay:owner><googleplay:email><![CDATA[frasa@substack.com]]></googleplay:email><googleplay:author><![CDATA[Francisco Sandoval]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[La IA no transforma empresas. Transforma personas que transforman empresas]]></title><description><![CDATA[El framework que falta en toda estrategia corporativa de inteligencia artificial]]></description><link>https://www.laultimainterfaz.com/p/la-ia-no-transforma-empresas-transforma</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-ia-no-transforma-empresas-transforma</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 14 Apr 2026 14:01:44 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/d69166e0-81eb-4533-8953-cb5634cc1b6f_1200x630.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El a&#241;o pasado, <a href="https://hai.stanford.edu/ai-index/2025-ai-index-report/economy">las empresas del mundo invirtieron m&#225;s de US$250.000 millones en inteligencia artificial</a>. El resultado: seg&#250;n BCG, <a href="https://www.bcg.com/publications/2025/are-you-generating-value-from-ai-the-widening-gap">el 60% no gener&#243; valor material. Solo el 5% logr&#243; escalar</a>.</p><p>No es un problema de tecnolog&#237;a. No es un problema de presupuesto. Es un problema de secuencia.</p><p>La mayor&#237;a de las organizaciones est&#225;n intentando adoptar IA como si fuera un ERP: un proyecto corporativo con un comit&#233;, un consultor y un plan de 18 meses. Pero la IA no funciona as&#237;. La IA es una herramienta que primero tiene que pasar por las manos de quien toma las decisiones. Literalmente. Si el CEO no ha usado inteligencia artificial para preparar su propia reuni&#243;n de directorio, ning&#250;n proyecto de &#8220;transformaci&#243;n con IA&#8221; va a funcionar.</p><p>La semana pasada present&#233; un modelo a un grupo de ejecutivos de primera l&#237;nea. Un framework simple para entender qu&#233; hace la IA por ti y por tu empresa, y por d&#243;nde empezar. Lo llam&#233; E&#178;.</p><h2>El cuadrante equivocado</h2><p>Hay una escena que se repite en las empresas de la regi&#243;n. El directorio aprueba un presupuesto para IA. Se contrata una consultora. Se arma un comit&#233;. Se escribe un roadmap de transformaci&#243;n digital. Se elige un piloto ambicioso: &#8220;vamos a redise&#241;ar la experiencia del cliente con inteligencia artificial&#8221;. Seis meses despu&#233;s, el piloto sigue en piloto. El presupuesto se fue. Y los gerentes que aprobaron el proyecto siguen mandando correos que podr&#237;an haber redactado en un tercio del tiempo si supieran usar las herramientas que ya tienen disponibles.</p><p>El patr&#243;n es m&#225;s com&#250;n de lo que parece. <a href="https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai">McKinsey reporta</a> que el 78% de las empresas dicen estar usando IA, pero solo un tercio la ha escalado a nivel organizacional. <a href="https://www.bcg.com/publications/2025/ai-at-work-momentum-builds-but-gaps-remain">BCG va m&#225;s lejos</a>: el 91% de los l&#237;deres esperan que la IA generativa sea central en su estrategia. Pero cuando le preguntas a la primera l&#237;nea, solo el 25% reporta apoyo real de sus jefes en el proceso de adopci&#243;n.</p><p>No hay un problema de habilidad. Hay un problema de voluntad.</p><p>Los ejecutivos est&#225;n aprobando inversiones en algo que no han usado con sus propias manos. Es como si un CEO autorizara la compra de 250 licencias de un software que nunca ha abierto. No sabe qu&#233; pedirle. No sabe qu&#233; esperar. No sabe si lo que le est&#225;n mostrando es un resultado bueno o mediocre. Y sin esa calibraci&#243;n personal, toda decisi&#243;n estrat&#233;gica sobre IA se toma a ciegas.</p><p>Esto empieza contigo. No con tu organizaci&#243;n.</p><p>Yo me demor&#233; un a&#241;o en mover a Yom, y soy CEO de una empresa de tecnolog&#237;a. Hoy hacemos todo con IA. Pero eso empez&#243; conmigo.</p><h2>E&#178;: Un modelo simple para entender qu&#233; hace la IA por ti y por tu empresa</h2><p>Cuando le haces una pregunta a un grupo de ejecutivos, la respuesta es reveladora. &#8220;Levante la mano quien usa ChatGPT, Claude o alguna herramienta de IA generativa.&#8221; La mayor&#237;a levanta la mano. &#8220;Ahora dejen la mano arriba los que la usan todos los d&#237;as para tomar decisiones de negocio.&#8221; La mayor&#237;a la baja.</p><p>Esa brecha es exactamente donde se est&#225; definiendo qui&#233;n gana y qui&#233;n pierde.</p><p>Para entender esa brecha, y para saber por d&#243;nde empezar a cerrarla, arm&#233; un modelo que llamo E&#178;. Son dos ejes. El primero distingue entre Eficiencia y Expansi&#243;n. Eficiencia es hacer lo de siempre, mejor y m&#225;s r&#225;pido. Expansi&#243;n es hacer cosas que antes no pod&#237;as hacer. El segundo eje distingue entre t&#250; como individuo y tu organizaci&#243;n. Eso genera cuatro cuadrantes.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!iYgz!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!iYgz!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 424w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 848w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 1272w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!iYgz!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png" width="1456" height="968" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/a3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:968,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1030646,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://www.laultimainterfaz.com/i/193974848?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!iYgz!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 424w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 848w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 1272w, https://substackcdn.com/image/fetch/$s_!iYgz!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa3401dea-4a8c-4037-a83f-afedc4e4c652_1922x1278.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>El primer cuadrante es <strong>tu trabajo diario con un copiloto</strong>. Preparar reuniones, analizar datos, escribir mejor, tomar decisiones m&#225;s informadas. Es el punto de entrada.</p><p>El segundo es <strong>la eficiencia llevada a escala organizacional</strong>. Es lo que hicieron BBVA, Zurich y JPMorgan: escalar la eficiencia individual a procesos completos. <a href="https://openai.com/index/bbva-2025/">BBVA Per&#250;</a> redujo el tiempo de consulta de 7.5 minutos a 1 minuto para 3,000 empleados. <a href="https://emerj.com/artificial-intelligence-at-zurich-insurance/">Zurich </a>ahorr&#243; US$40 millones en underwriting. <a href="https://www.jpmorganchase.com/about/technology/blog/llmsuite-ab-award">JPMorgan</a> obtuvo cerca de US$2.000 millones de retorno directo con 200,000 empleados usando su LLM Suite interno.</p><p>El tercer cuadrante es <strong>capacidades nuevas</strong> a nivel personal. Es un CEO configurando modelos de IA sin saber programar. Es una joven de 19 a&#241;os construyendo software empresarial con herramientas de IA. Es cruzar una barrera que antes requer&#237;a a&#241;os de formaci&#243;n t&#233;cnica.</p><p>Y el cuarto es <strong>nuevos modelos y cambios de paradigma</strong> a nivel organizacional. Es anticipar qu&#233; necesita un cliente antes de que lo pida. Es convertir d&#233;cadas de datos en relaciones predictivas. Es lo que ya hizo <a href="https://group.pingan.com/media/news/2025/pingan-releases-2024-sustainability-report.html">Ping An en China con m&#225;s de 240 millones de clientes</a>.</p><p>El modelo tiene una indicaci&#243;n que no es casual: &#8220;Empieza ac&#225;&#8221;, se&#241;alando el cuadrante de eficiencia personal. Eso es una declaraci&#243;n de principios, no una sugerencia.</p><h2>La secuencia que importa</h2><p>El framework no es solo un mapa. Es una ruta. Y el orden en que lo recorres determina si tu inversi&#243;n en IA genera valor o se queda en un piloto eterno.</p><p>La secuencia es: primero t&#250;, despu&#233;s tu organizaci&#243;n. Primero eficiencia, despu&#233;s expansi&#243;n. Es decir: YO + Eficiencia &#8594; MI ORG + Eficiencia &#8594; YO + Expansi&#243;n &#8594; MI ORG + Expansi&#243;n.</p><p>&#191;Por qu&#233; ese orden y no otro?</p><p>Porque no puedes desplegar IA en tu empresa si no entiendes qu&#233; puede hacer. Y no lo vas a entender leyendo un informe de McKinsey. Lo vas a entender us&#225;ndola. Todos los d&#237;as. Para algo real de tu trabajo. No un curso. No un taller. No un comit&#233;. Usarla.</p><p>En mi caso empec&#233; con cuatro herramientas: Claude como asistente de pensamiento, Granola para mis reuniones, Slack como hub de comunicaci&#243;n, y Pipedrive para el pipeline comercial. Con eso arm&#233; mi rutina diaria como CEO. Preparar una reuni&#243;n de directorio me tomaba medio d&#237;a. Hoy me toma una hora, con mejor calidad. Analizar un reporte financiero que antes delegaba, ahora lo proceso en tiempo real. Eso es el primer cuadrante.</p><p>Cuando entend&#237; las capacidades de la herramienta con mis propias manos, pude tomar decisiones reales sobre c&#243;mo desplegarla en Yom. No desde un comit&#233;. Desde la experiencia. Eso es pasar al segundo cuadrante.</p><p>Las empresas que est&#225;n generando valor real con IA comparten este patr&#243;n. <a href="https://openai.com/index/bbva-2025/">BBVA empez&#243; con un asistente interno para sus empleados en Per&#250;</a> &#8212; eficiencia individual &#8212; y desde ah&#237; escal&#243; a 120,000 personas en 25 pa&#237;ses. <a href="https://www.jpmorganchase.com/about/technology/blog/llmsuite-ab-award">JPMorgan despleg&#243; su LLM Suite primero entre programadores y analistas</a>, midi&#243; el impacto, y solo entonces lo expandi&#243; a 200,000 empleados. <a href="https://tech.walmart.com/content/walmart-global-tech/en_us/blog/post/three-ways-we-are-using-conversational-ai-at-walmart.html">Walmart arranc&#243; con Ask Sam</a>, un chatbot para m&#225;s de 740,000 asociados en tienda, antes de construir su plataforma de IA organizacional.</p><p>No partieron por &#8220;reinventar el modelo de negocio con IA&#8221;. Partieron porque alguien se sent&#243; a usarla.</p><p>Habr&#225; excepciones. Siempre hay outliers que saltan directo a la expansi&#243;n. Pero para la gran mayor&#237;a de los l&#237;deres que conozco, la secuencia del E&#178; es el camino m&#225;s corto a generar valor. <a href="https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai">McKinsey lo confirm&#243; en su reporte State of AI 2025</a>: los usos m&#225;s simples y t&#225;cticos han sido m&#225;s f&#225;ciles de desplegar y escalar. La eficiencia precede a la expansi&#243;n.</p><h2>El costo de la inteligencia se vino a cero</h2><p>El salto entre el lado izquierdo y el derecho del E&#178; &#8212; entre Eficiencia y Expansi&#243;n &#8212; parece gradual. No lo es. Es un cambio de naturaleza.</p><p>Cuando operas en Eficiencia, haces lo mismo de siempre con un copiloto. Cuando cruzas a Expansi&#243;n, haces cosas que no sab&#237;as que pod&#237;as hacer. Y lo que permite ese cruce tiene una explicaci&#243;n concreta: la barrera de entrada al conocimiento t&#233;cnico colaps&#243;.</p><p>El costo de inferencia de un modelo de IA se desplom&#243; a US$0.07 por mill&#243;n de tokens. Para ponerlo en perspectiva: con un d&#243;lar puedes procesar m&#225;s de 10 millones de palabras. Pero la cifra econ&#243;mica no es lo que importa. Lo que importa es lo que significa en la pr&#225;ctica: el costo de acceder a una inteligencia que antes requer&#237;a a&#241;os de formaci&#243;n se vino a cero.</p><p>Lo viv&#237; en primera persona. Durante un viaje largo con mi familia, lejos de la operaci&#243;n diaria de Yom, decid&#237; instalar y configurar un servidor de IA desde cero. Sin saber programar. Configur&#233; API keys, servidores en la nube, canales de Slack, cuentas de email, accesos OAuth. Me tom&#243; 8 horas usando Claude. Hace dos a&#241;os, habr&#237;a necesitado un equipo de ingenieros y meses de desarrollo.</p><p>No fue que la herramienta se hizo m&#225;s barata. Fue que el conocimiento necesario para usarla dej&#243; de ser una barrera. Siempre hab&#237;a querido poder hacer eso. Mi costo alternativo como CEO era demasiado alto. Cuando ese costo de inteligencia se vino a cero, no tuve una raz&#243;n l&#243;gica para no hacerlo.</p><p>Mi hija Martina, de 19 a&#241;os, est&#225; construyendo la plataforma de onboarding de Yom. Sin equipo de desarrollo. Con herramientas de IA. Si un economista y una universitaria pueden hacer esto, imaginen lo que podr&#237;a hacer una organizaci&#243;n con los recursos de la de ustedes.</p><p>Eso es Expansi&#243;n. No es una mejora incremental. Es descubrir que puedes cruzar una puerta que antes estaba cerrada.</p><h2>LATAM: la brecha que ya se est&#225; abriendo</h2><p><a href="https://www.cepal.org/en/pressreleases/latin-america-and-caribbean-accelerate-adoption-artificial-intelligence-though">Latinoam&#233;rica invierte US$8.200 millones al a&#241;o en inteligencia artificial</a>. Suena como mucho. Pero la regi&#243;n genera el 6,6% del PIB mundial y captura apenas el 1,1% de la inversi&#243;n global en IA. Ya estamos invirtiendo mucho menos de lo que nos corresponde.</p><p><a href="https://indicelatam.cl/">Chile lidera la regi&#243;n con 70.5 puntos en el &#205;ndice Latinoamericano de IA (ILIA 2025)</a>, publicado por CEPAL y CENIA. Brasil y Uruguay vienen detr&#225;s. Pero adopci&#243;n no es lo mismo que valor. Si a nivel global <a href="https://www.bcg.com/press/24october2024-ai-adoption-in-2024-74-of-companies-struggle-to-achieve-and-scale-value">el 74% de las empresas no logra escalar sus proyectos de IA seg&#250;n BCG</a>, en LATAM el desaf&#237;o es m&#225;s agudo. Porque la tendencia natural es importar frameworks dise&#241;ados en otro contexto: contratar la consultora de siempre, comprar el paquete de siempre, armar el comit&#233; de siempre.</p><p>El E&#178; propone algo distinto. No naci&#243; de un laboratorio de innovaci&#243;n ni de un reporte de 200 p&#225;ginas. Naci&#243; de operar. De usar IA como CEO todos los d&#237;as, medir qu&#233; funciona, y despu&#233;s escalar lo que pasa la prueba de la realidad. Es un modelo pensado desde la operaci&#243;n latinoamericana, no adaptado desde afuera.</p><p>La ventaja que tienen las empresas de la regi&#243;n es que muchas de las que hoy operan en LATAM tienen algo que ninguna startup puede comprar: d&#233;cadas de datos propios. Historial crediticio. Comportamiento de millones de clientes. Cadenas de distribuci&#243;n con capilaridad que ning&#250;n algoritmo puede replicar desde cero. La pregunta no es si tienen los activos. Es si van a usarlos antes que su competencia.</p><h2>La pr&#243;xima capa de liderazgo</h2><p>Hay una pregunta inc&#243;moda que el E&#178; deja sobre la mesa y que prefiero no esquivar.</p><p>El salto de Eficiencia a Expansi&#243;n personal requiere algo que no se compra ni se contrata: curiosidad. La disposici&#243;n a sentarte con una herramienta que no dominas y quedarte ah&#237; hasta que algo se mueva. No todos los ejecutivos van a dar ese paso. Algunos van a optimizar su trabajo con IA, van a hacer que sus empresas operen mejor, y se van a quedar ah&#237;. C&#243;modos en el lado izquierdo del framework.</p><p>Y eso va a ser suficiente. Por un tiempo.</p><p>Pero los l&#237;deres que crucen al lado derecho &#8212; los que descubran que pueden hacer cosas que antes no pod&#237;an, los que configuren, construyan, experimenten con sus propias manos &#8212; esos van a tener una ventaja que no se cierra con presupuesto. Porque van a entender lo que viene antes de que llegue. Van a tomar mejores decisiones sobre IA porque van a tener la intuici&#243;n que solo da la experiencia directa.</p><p>Solo los l&#237;deres que logren expandirse personalmente podr&#225;n expandir sus compa&#241;&#237;as.</p><p>&#191;En qu&#233; cuadrante est&#225;s hoy?</p>]]></content:encoded></item><item><title><![CDATA[OpenAI tenía todo para ganar. Eso fue exactamente su problema]]></title><description><![CDATA[Por qu&#233; la empresa que inici&#243; la era de la IA est&#225; perdiendo el mercado que m&#225;s importa]]></description><link>https://www.laultimainterfaz.com/p/openai-tenia-todo-para-ganar-eso</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/openai-tenia-todo-para-ganar-eso</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 07 Apr 2026 15:08:16 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/d90e5c8d-a840-49f3-b3d0-63695153cdd5_2198x1152.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>OpenAI cerr&#243; <a href="https://openai.com/index/accelerating-the-next-phase-ai/">la ronda de financiamiento privado m&#225;s grande de la historia</a>: $122 mil millones d&#243;lares. Tiene <a href="https://backlinko.com/chatgpt-stats">900 millones de usuarios semanales</a>, alianza con Microsoft, contrato con el Pent&#225;gono, y la marca m&#225;s reconocida en inteligencia artificial. Si esto fuera una competencia de recursos, ya habr&#237;a ganado.</p><p>Pero no gan&#243;. En enterprise, el mercado donde se paga de verdad, <a href="https://www.axios.com/2026/03/18/ai-enterprise-revenue-anthropic-openai">Anthropic le arrebat&#243; el liderazgo</a>. Pas&#243; de 24% a 40% del gasto corporativo en LLMs mientras OpenAI ca&#237;a del 50% al 27%, seg&#250;n <a href="https://www.androidheadlines.com/2026/03/anthropic-vs-openai-businesses-market-share-2026-analysis.html">datos de Menlo Ventures</a>. Y lo hizo con menos dinero, menos productos y menos ruido.</p><p>La explicaci&#243;n f&#225;cil es que OpenAI &#8220;perdi&#243; el foco&#8221;. La real es m&#225;s inc&#243;moda: OpenAI apost&#243; a que ganar la carrera de modelos era suficiente. No lo fue. Porque la carrera de modelos ya termin&#243;. Y lo que viene despu&#233;s tiene poco que ver con tecnolog&#237;a.</p><h2>La carrera que ya nadie puede ganar</h2><p>Media docena de laboratorios tienen hoy modelos de frontera con capacidades equivalentes. OpenAI, Anthropic, Google, Meta, Mistral y DeepSeek se superan entre s&#237; cada pocas semanas en los benchmarks. Uno lidera en razonamiento, otro en c&#243;digo, otro en velocidad. La ventaja dura un par de meses. A veces menos.</p><p><a href="https://www.ben-evans.com/benedictevans/2026/2/19/how-will-openai-compete-nkg2x">Benedict Evans lo puso en t&#233;rminos crudos</a> en febrero: no existe ning&#250;n mecanismo conocido por el cual una empresa pueda construir una ventaja en modelos que las dem&#225;s no puedan igualar. No hay network effects. Si inventas un producto brillante usando IA generativa, llamas a la API de un modelo en la nube y al usuario le da igual cu&#225;l usaste. Nadie que use Instagram se pregunta si corre en AWS o Google Cloud.</p><p>Esto tiene una consecuencia que muchos ejecutivos todav&#237;a no internalizan: apostar tu estrategia de IA a que un modelo espec&#237;fico va a ser &#8220;el ganador&#8221; es como haber apostado en 2005 a que un navegador web espec&#237;fico iba a dominar internet. Los navegadores resultaron ser un input box y un output box que nadie pudo diferenciar. Los chatbots de hoy tienen exactamente el mismo problema.</p><h2>900 millones de usuarios que no saben para qu&#233; volvieron</h2><p>OpenAI report&#243; 900 millones de usuarios semanales en febrero de 2026. Duplic&#243; la cifra en un a&#241;o. Si miras solo ese n&#250;mero, parece imparable.</p><p>Ahora mira debajo. El 80% de esos usuarios envi&#243; menos de mil mensajes en todo 2025. Menos de tres prompts al d&#237;a en promedio. Solo el 5% paga. La propia OpenAI reconoce un &#8220;capability gap&#8221; entre lo que sus modelos pueden hacer y lo que la gente hace con ellos. Evans traduce eso sin rodeos: no tienen product-market fit.</p><p>Mientras tanto, la lista de productos creci&#243; sin parar. Sora para video. Un navegador llamado Atlas. Un dispositivo de hardware con <a href="https://es.wikipedia.org/wiki/Jonathan_Ive">Jony Ive</a>. Features de e-commerce dentro de ChatGPT. Una red social de videos cortos. Cada uno interesante por separado. Juntos, incoherentes. <a href="https://www.cryptopolitan.com/anthropic-forces-openai-to-rethink-its-too-many-bets-too-little-direction-strategy/">Fidji Simo, la CEO de aplicaciones de OpenAI</a>, le dijo a sus equipos en una reuni&#243;n interna que la empresa no pod&#237;a seguir &#8220;distra&#237;da con side quests&#8221;. Ahora est&#225;n <a href="https://www.cnbc.com/2026/03/19/openai-desktop-super-app-chatgpt-browser-codex.html">consolidando todo en un superapp de escritorio</a>: ChatGPT, Codex y Atlas bajo un mismo techo.</p><p>Pero ese movimiento delata el problema de fondo. OpenAI se comport&#243; durante 18 meses como un laboratorio de investigaci&#243;n con cuenta de Twitter: cada vez que los investigadores lograban algo nuevo, el equipo de producto recib&#237;a un mail preguntando c&#243;mo convertirlo en un bot&#243;n. La estrategia la defin&#237;a la investigaci&#243;n, no el mercado. Altman lo sabe. Por eso contrat&#243; a Simo (ex CEO de Instacart) para intentar girar hacia una cultura product-first. La pregunta es si la inercia de un laboratorio que lleva a&#241;os funcionando as&#237; se puede revertir con un cambio de organigramas y un rebrand del equipo de producto a &#8220;AGI Deployment&#8221;.</p><p>Distribuci&#243;n sin engagement es una m&#233;trica de vanidad. Cualquier CEO en Latinoam&#233;rica que haya lanzado una app con millones de descargas y cero retenci&#243;n reconoce este patr&#243;n.</p><h2>La empresa que gan&#243; haciendo menos</h2><p>Anthropic no hizo video. No lanz&#243; un browser. No anunci&#243; hardware. No meti&#243; features de shopping en su chatbot. No levant&#243; la ronda m&#225;s grande de la historia.</p><p>Lo que hizo fue elegir un problema: ayudar a developers y empresas a escribir y ejecutar c&#243;digo con IA. Y cav&#243; trinchera ah&#237; hasta que nadie m&#225;s pudo sacarla.</p><p>Claude Code se convirti&#243; en la herramienta que los ingenieros no pueden soltar. En Silicon Valley empezaron a hablar de &#8220;Claude benders&#8221;, sesiones de programaci&#243;n de horas donde el developer trabaja codo a codo con el modelo. Esa adicci&#243;n no viene de un benchmark. Viene de que la herramienta resuelve un problema real, todos los d&#237;as, en el flujo de trabajo donde vive el usuario. Anthropic no invent&#243; una categor&#237;a nueva ni pidi&#243; que cambiaras tus h&#225;bitos. Se meti&#243; en el h&#225;bito que ya ten&#237;as y lo hizo mejor.</p><p>Los n&#250;meros son dif&#237;ciles de ignorar. Anthropic captura hoy el <a href="https://www.androidheadlines.com/2026/03/anthropic-vs-openai-businesses-market-share-2026-analysis.html">40% del gasto enterprise en modelos de lenguaje</a>. En licitaciones directas por nuevos clientes enterprise, <a href="https://techcrunch.com/2025/07/31/enterprises-prefer-anthropics-ai-models-over-anyone-elses-including-openais/">gana el 70% de las veces</a>. Su <a href="https://finance.yahoo.com/news/anthropic-arr-surges-19-billion-151028403.html">ARR pas&#243; de mil millones de d&#243;lares en diciembre de 2024 a 19 mil millones en marzo de 2026</a>. Quince meses. Claude Code por s&#237; solo genera $2.5 mil millones en run-rate revenue, cifra que se duplic&#243; desde enero.</p><p>Hay algo casi anticuado en la estrategia de Anthropic. No es disruptiva. No es visionaria. Es una empresa que eligi&#243; a qui&#233;n servir, entendi&#243; qu&#233; necesitaba ese cliente, y ejecut&#243; con una disciplina que la mayor&#237;a de los startups abandona en el momento que consigue financiamiento.</p><h2>La lecci&#243;n no es de IA. Es de estrategia.</h2><p>Lo que est&#225; pasando entre OpenAI y Anthropic no es una historia de tecnolog&#237;a. Es una historia que Michael Porter podr&#237;a haber escrito hace cuarenta a&#241;os.</p><p>En mercados donde no hay network effects, donde el cliente puede cambiar de proveedor sin perder nada, el ganador no es el que tiene m&#225;s recursos. Es el que resuelve mejor un problema espec&#237;fico para un cliente espec&#237;fico. Porter lo llamaba &#8220;trade-offs estrat&#233;gicos&#8221;: elegir qu&#233; no hacer es tan importante como elegir qu&#233; hacer. OpenAI eligi&#243; no elegir. Anthropic eligi&#243; developers y enterprise, y dijo que no a todo lo dem&#225;s.</p><p>Altman quiere que OpenAI sea el AWS de la IA. Chips, infraestructura, modelos, aplicaciones, ecosistema. Todo. El <a href="https://www.ben-evans.com/benedictevans/2026/2/19/how-will-openai-compete-nkg2x">diagrama que mostr&#243; a fines del a&#241;o pasado</a> es una versi&#243;n casi textual del stack de Apple o Microsoft. Cit&#243; a Bill Gates: &#8220;una plataforma crea m&#225;s valor para sus socios que para s&#237; misma&#8221;.</p><p>El problema es que OpenAI no tiene ninguna de las din&#225;micas que hicieron funcionar a esas plataformas. Windows ten&#237;a network effects reales: los developers necesitaban a Windows porque ah&#237; estaban los usuarios, y los usuarios necesitaban Windows porque ah&#237; estaban las apps. iOS ten&#237;a lo mismo. OpenAI no tiene eso. Si un developer construye algo con GPT-5, puede migrarlo a Claude o Gemini en una tarde. No hay lock-in. No hay ecosistema que se refuerce solo. Evans lo compara con TSMC: puedes fabricar los mejores chips del mundo y aun as&#237; no tener ning&#250;n poder sobre lo que se construye con ellos.</p><p>El CFO de OpenAI public&#243; un diagrama que supuestamente muestra un flywheel entre capex y revenue. Evans observ&#243; que una relaci&#243;n 1:1 entre lo que gastas y lo que facturas no es un flywheel. Es una caminadora.</p><h2>El espejo que LATAM no quiere mirar</h2><p>Un <a href="https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/">estudio del MIT Media Lab</a> publicado en 2025 analiz&#243; 300 deployments de IA generativa en empresas, entrevist&#243; a 150 l&#237;deres y encuest&#243; a 350 empleados. La conclusi&#243;n: el 95% de los pilotos de IA generativa no generan impacto medible en el P&amp;L. No el 50%. No el 70%. El noventa y cinco por ciento.</p><p>Y la raz&#243;n no es la tecnolog&#237;a. Los modelos funcionan. Lo que falla es c&#243;mo se implementan. Las empresas intentan forzar la IA en procesos existentes sin adaptar nada. Lanzan pilotos ambiciosos que tocan demasiadas &#225;reas a la vez. Construyen internamente en lugar de asociarse con proveedores especializados. Y cuando construyen, fracasan el doble. El reporte lo dice con una claridad que deber&#237;a estar pegada en la pared de toda sala de directorio: las empresas que tienen &#233;xito eligen un pain point, ejecutan bien y se asocian con quien ya resolvi&#243; el problema.</p><p><a href="https://www.bcg.com/publications/2025/closing-the-ai-impact-gap">BCG encontr&#243; lo mismo</a> desde otro &#225;ngulo: las empresas que se enfocan en un promedio de 3.5 casos de uso generan 2.1 veces m&#225;s retorno que las que persiguen 6 o m&#225;s. La diferencia entre el grupo que saca valor de la IA y el que no no es presupuesto, ni talento, ni acceso a modelos. Es disciplina para elegir d&#243;nde poner la energ&#237;a.</p><p>Esto deber&#237;a encender alarmas en Latinoam&#233;rica. La regi&#243;n atrae apenas el <a href="https://www.cepal.org/en/pressreleases/latin-america-and-caribbean-accelerate-adoption-artificial-intelligence-though">1.1% de la inversi&#243;n global en IA seg&#250;n CEPAL</a>, pero representa el 6.6% del PIB mundial. No hay margen para desperdiciar lo poco que se invierte en proyectos ambiguos. Y sin embargo, un <a href="https://mexicobusiness.news/cloudanddata/news/most-latin-american-e-commerce-platforms-lag-ai-adoption">estudio de Google Cloud y R/GA de 2026</a> encontr&#243; que el 80% de las plataformas de e-commerce en la regi&#243;n tienen deficiencias cr&#237;ticas en adopci&#243;n de IA. No por falta de ganas. Por exceso de complejidad y falta de foco.</p><p>Llevo m&#225;s de 25 a&#241;os emprendiendo en tecnolog&#237;a en la regi&#243;n. Lo he visto con transformaci&#243;n digital, con mobile, con cloud, y ahora lo estoy viendo con IA: cada vez que una empresa intenta hacer algo muy sofisticado, con muchas aristas y muchos frentes abiertos, el camino se vuelve inmanejable. Cuando hay foco (un problema, un equipo, una m&#233;trica) es m&#225;s f&#225;cil ejecutar y m&#225;s f&#225;cil medir si est&#225; funcionando. OpenAI est&#225; aprendiendo esa lecci&#243;n con la ronda m&#225;s grande en la historia del venture capital. La pregunta es si los CEOs en LATAM la van a aprender antes o despu&#233;s de quemar su presupuesto de IA.</p><p>La era del modelo termin&#243;. No porque los modelos dejaron de importar, sino porque dejaron de ser el diferenciador. Todos son buenos. Todos van a seguir mejorando.</p><p>La pregunta que importa ahora no es &#8220;qu&#233; modelo uso&#8221;. Es &#8220;qu&#233; problema resuelvo, para qui&#233;n, y c&#243;mo mido si lo resolv&#237;&#8221;. Anthropic le gan&#243; mercado a OpenAI respondiendo eso con dos palabras: c&#243;digo, para developers.</p><p>Empez&#243; la era del problema.</p>]]></content:encoded></item><item><title><![CDATA[La habilidad más valiosa de la próxima década no se enseña en ninguna universidad]]></title><description><![CDATA[Jensen Huang redefini&#243; "inteligente." Los datos le dan la raz&#243;n. Y el sistema que forma talento en LATAM apunta en la direcci&#243;n contraria.]]></description><link>https://www.laultimainterfaz.com/p/la-habilidad-mas-valiosa-de-la-proxima</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-habilidad-mas-valiosa-de-la-proxima</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 31 Mar 2026 14:41:37 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/b8a419b3-4939-463b-845d-266f5fe1e942_2202x1162.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace unos meses atr&#225;s le preguntaron a Jensen Huang, Co Founder &amp; CEO de Nvidia, qui&#233;n es la persona m&#225;s inteligente que ha conocido. La pregunta se la hizo Jodi Shelton, CEO de la Global Semiconductor Alliance y amiga de Huang desde 1993, en su podcast <em><a href="https://open.spotify.com/episode/1XwnslTxaXEytKhqHgdi0a">A Bit Personal</a></em>. La entrevista dur&#243; 87 minutos. Fue la conversaci&#243;n m&#225;s personal que Huang ha dado en p&#250;blico.</p><p>Al responder la pregunta, no dio un nombre.</p><p>En vez de eso, redefini&#243; la pregunta. Dijo que la habilidad profesional ya no es escasa. Que la IA la est&#225; convirtiendo en commodity. Que las m&#225;quinas ya superan a los humanos en las cosas que durante d&#233;cadas consideramos el peak de la inteligencia: programar, resolver problemas complejos, optimizar sistemas.</p><p>Su definici&#243;n de inteligente: alguien que combina conocimiento t&#233;cnico con empat&#237;a humana y la capacidad de inferir lo que no se dice. Gente que ve m&#225;s all&#225; de lo obvio, que anticipa problemas meses antes de que aparezcan porque sabe leer el contexto, sentir la vibra de una situaci&#243;n, conectar datos con experiencia y con la lectura de las personas alrededor.</p><p>Lo dijo textual: esa persona probablemente sacar&#237;a un puntaje horrible en una prueba de admisi&#243;n universitaria.</p><h2>No es un consejo. Es un diagn&#243;stico de mercado.</h2><p>Es f&#225;cil leer esto como otro &#8220;quote motivacional&#8221; de un CEO dando una conferencia. LinkedIn se llen&#243; de posts celebrando que &#8220;las soft skills importan m&#225;s que las hard skills.&#8221; Un reframe bonito para compartir con emoji de cerebro.</p><p>Pero hay que mirar qui&#233;n lo dice y desde d&#243;nde lo dice. Jensen Huang es el CEO de NVIDIA, <a href="https://www.cnbc.com/2025/10/29/nvidia-on-track-to-hit-historic-5-trillion-valuation-amid-ai-rally.html">la primera empresa en la historia en superar los 5 billones de d&#243;lares de capitalizaci&#243;n de mercado</a>. NVIDIA fabrica los chips sobre los que corre pr&#225;cticamente toda la inteligencia artificial del planeta. Cada modelo de lenguaje que usas, cada agente que se despliega, cada empresa que automatiza procesos, usa la infraestructura que Huang construy&#243;.</p><p>Cuando el tipo que m&#225;s dinero gana vendiendo IA te dice que no compitas contra ella, eso no es inspiraci&#243;n. Es informaci&#243;n privilegiada disfrazada de conversaci&#243;n casual.</p><p>Y la informaci&#243;n es esta: la habilidad profesional pura tiene fecha de vencimiento como diferenciador. No porque deje de ser &#250;til, sino porque deja de ser escasa. Cuando todos pueden acceder al mismo nivel de capacidad a trav&#233;s de la IA, lo que te separa del resto es lo que la m&#225;quina no replica: leer el contexto, anticipar lo que viene, entender lo que nadie dijo pero todos piensan.</p><p>Huang no est&#225; haciendo filosof&#237;a. Est&#225; describiendo el perfil del trabajador que su propia tecnolog&#237;a no puede reemplazar. Y eso, viniendo de &#233;l, deber&#237;a cambiar c&#243;mo contratas, c&#243;mo promueves y c&#243;mo armas equipos.</p><h2>Los datos que le dan la raz&#243;n</h2><p>Huang no es el &#250;nico que ve esto. Hay un cuerpo creciente de evidencia institucional que apunta en la misma direcci&#243;n. Y los datos m&#225;s relevantes no vienen de encuestas de opini&#243;n ni de futur&#243;logos. Vienen de n&#243;minas reales, de modelos econ&#243;micos y de reportes para inversores.</p><p>El <a href="https://digitaleconomy.stanford.edu/publications/canaries-in-the-coal-mine/">Stanford Digital Economy Lab</a> public&#243; un estudio que deber&#237;a ser lectura obligatoria para cualquier CEO que est&#233; armando equipos hoy. Erik Brynjolfsson y su equipo analizaron datos de n&#243;mina de ADP, el proveedor de payroll m&#225;s grande de Estados Unidos, cubriendo millones de trabajadores. Encontraron que el empleo para trabajadores de 22 a 25 a&#241;os en ocupaciones expuestas a la IA cay&#243; 6% en t&#233;rminos absolutos desde finales de 2022, cuando se masific&#243; la IA generativa. En desarrolladores de software espec&#237;ficamente, la ca&#237;da fue de casi 20%.</p><p>Pero el hallazgo que importa para nuestra conversaci&#243;n no es cu&#225;nto cay&#243;. Es d&#243;nde cay&#243; y d&#243;nde no.</p><p>La ca&#237;da se concentra en roles donde la IA automatiza: reemplaza el trabajo humano. En roles donde la IA aumenta al trabajador, donde funciona como amplificador de capacidades humanas, el empleo se mantiene o crece. Stanford lo midi&#243; con datos de n&#243;mina, no con encuestas. La distinci&#243;n entre automatizar y aumentar no es sem&#225;ntica. Es la diferencia entre tener trabajo y no tenerlo.</p><p>Eso es exactamente lo que Huang describi&#243; con otras palabras. El profesional que hace cosas que la m&#225;quina puede replicar se desplaza. El que combina capacidad t&#233;cnica con lectura de contexto humano, el que usa la IA como extensi&#243;n de un criterio que la m&#225;quina no tiene, se fortalece.</p><p>En <a href="https://www.laultimainterfaz.com/p/la-paradoja-del-ceo-eficiente">La Paradoja del CEO Eficiente</a> explor&#233; las consecuencias macroecon&#243;micas de la automatizaci&#243;n masiva. Los datos de Stanford son el otro lado de esa moneda: a nivel individual, la pregunta ya no es si la IA te va a afectar, sino c&#243;mo. Si tu rol es automatizable, est&#225;s en la l&#237;nea de fuego. Si tu rol combina IA con juicio humano, est&#225;s en la posici&#243;n m&#225;s fuerte del mercado laboral.</p><p><a href="https://www.mckinsey.com/mgi/our-research/agents-robots-and-us-skill-partnerships-in-the-age-of-ai">McKinsey Global Institute</a> cuantific&#243; esto en noviembre de 2025 con su reporte &#8220;Agents, Robots, and Us.&#8221; Calcularon que un tercio de las horas de trabajo no-f&#237;sico dependen de habilidades sociales y emocionales que est&#225;n fuera del alcance de la IA, incluso en un escenario de adopci&#243;n completa. El ejemplo que dan es concreto: un profesor leyendo la expresi&#243;n de un estudiante para ajustar su explicaci&#243;n en tiempo real. Un vendedor detectando el momento exacto en que un cliente pierde inter&#233;s. Esas micro-lecturas del contexto humano, esa capacidad de procesar se&#241;ales que no est&#225;n en ning&#250;n dataset, son lo que Huang llama &#8220;sentir la vibra.&#8221;</p><p>No es una habilidad blanda. Es la habilidad m&#225;s dif&#237;cil de encontrar, formar y medir que existe.</p><p>Y ac&#225; viene un dato que no he visto a nadie conectar con lo que dice Huang. <a href="https://hbr.org/2026/02/how-do-workers-develop-good-judgment-in-the-ai-era">Harvard Business Review public&#243; en febrero de 2026</a> un art&#237;culo sobre c&#243;mo se desarrolla el buen criterio en la era de la IA. El hallazgo: las tareas repetitivas y operativas que la IA est&#225; absorbiendo eran, hist&#243;ricamente, el terreno donde los empleados junior constru&#237;an juicio. El analista que revisaba cientos de reportes a mano desarrollaba ojo cl&#237;nico para detectar anomal&#237;as. El ejecutivo de cuentas que hac&#237;a seguimiento manual a decenas de clientes aprend&#237;a a leer se&#241;ales de riesgo antes de que aparecieran en los n&#250;meros.</p><p>La IA elimin&#243; esas tareas. Y con ellas, elimin&#243; el &#8220;gimnasio&#8221; donde se formaba exactamente el tipo de inteligencia que Huang describe como la m&#225;s valiosa.</p><p>Las empresas corren el riesgo de terminar con gerentes que nunca hicieron el trabajo de base. Pipelines de liderazgo cada vez m&#225;s delgados. Ejecutivos que saben operar herramientas pero que nunca desarrollaron el criterio que solo viene de la exposici&#243;n repetida al contexto real.</p><p>El <a href="https://www.weforum.org/publications/the-future-of-jobs-report-2025/">World Economic Forum</a> calcul&#243; en su Future of Jobs Report 2025 que el 40% de las habilidades requeridas en los trabajos actuales van a cambiar en los pr&#243;ximos cinco a&#241;os. Y el reporte <a href="https://news.linkedin.com/2026/Skills-on-the-rise-2026">Skills on the Rise 2026 de LinkedIn</a>, basado en datos reales de contrataci&#243;n de millones de perfiles, confirm&#243; algo que deber&#237;a incomodar a m&#225;s de un rector universitario: las habilidades blandas dominan 7 de los 10 puestos m&#225;s demandados del mercado. AI Literacy convive con Conflict Mitigation y Public Speaking en el top del ranking.</p><p>La habilidad profesional se deprecia. La capacidad de leer contexto, anticipar y conectar con personas se aprecia. Y no tenemos un sistema que forme lo segundo.</p><h2>Lo que veo desde la trinchera</h2><p>Puedo hablar de esto con datos de Stanford y McKinsey. Pero tambi&#233;n puedo hablar de lo que veo todos los d&#237;as en mi rol de CEO en <a href="http://yom.ai">Yom</a>.</p><p>En Yom implementamos inteligencia artificial en empresas de consumo masivo en cuatro pa&#237;ses de Latinoam&#233;rica. Llevamos dos a&#241;os trabajando con GenAI aplicada al canal tradicional, desde que dej&#243; de ser un juguete y se convirti&#243; en algo con lo que pod&#237;amos construir nuevos canales de venta y conversar con los computadores de formas que antes no exist&#237;an. Trabajamos con m&#225;s de 20 clientes. Y hay un patr&#243;n que se repite en todos ellos. Sin una sola excepci&#243;n.</p><p>Los clientes que tratan la IA como un tema de tecnolog&#237;a se estancan. Ponen al equipo t&#233;cnico al mando, buscan al perfil con m&#225;s certificaciones, y esperan que la herramienta haga el trabajo. No pasa nada. La tecnolog&#237;a funciona, pero los resultados no llegan.</p><p>Los que obtienen resultados excepcionales hacen algo distinto: ponen al frente a las personas que entienden el negocio. Gente que conoce el canal tradicional, que sabe por qu&#233; una tienda en Santiago se comporta diferente a una tienda en Cali, que entiende las din&#225;micas del tendero y del distribuidor. Esas personas aprenden r&#225;pido c&#243;mo funciona la IA, se abren a explorar &#225;ngulos nuevos para abordar los desaf&#237;os del canal, y combinan lo que saben del terreno con lo que los modelos pueden hacer.</p><p>La diferencia no es sutil. Los clientes que ponen gente de negocio al frente generan entre un 10% y un 20% m&#225;s de mejoras en su gesti&#243;n comercial que los que no. Los segundos solo ganan eficiencia por la mejora tecnol&#243;gica: hacen lo mismo de antes, un poco m&#225;s r&#225;pido. Los primeros se cuestionan sus procesos comerciales completos y los redise&#241;an usando la tecnolog&#237;a y los datos que les proporcionamos. No es la misma conversaci&#243;n.</p><p>Y esto conecta directamente con lo que dice Huang y con lo que muestran los datos de Stanford. El perfil que solo opera la herramienta, que sabe usar el modelo pero no entiende el contexto del negocio, gana eficiencia marginal. El que entiende el negocio y aprende a usar la herramienta cambia resultados. Uno automatiza. El otro aumenta. Y la diferencia entre ambos es exactamente la que Stanford midi&#243; en millones de datos de n&#243;mina.</p><p>Lo parad&#243;jico es que las empresas siguen buscando al &#8220;experto en IA&#8221; cuando lo que necesitan es al experto en su negocio que est&#233; dispuesto a aprender IA. La habilidad de usar un modelo se aprende en semanas. El conocimiento profundo de un mercado, la lectura de contexto de un canal de distribuci&#243;n, la capacidad de anticipar qu&#233; va a funcionar en una tienda espec&#237;fica de una ciudad espec&#237;fica, eso toma a&#241;os. Y no se puede automatizar.</p><h2>El sistema que forma talento apunta en la direcci&#243;n contraria</h2><p>Todo lo anterior describe un cambio global. Pero en Latinoam&#233;rica el problema tiene una capa adicional.</p><p>El <a href="https://www.imf.org/en/publications/wp/issues/2024/10/11/what-can-artificial-intelligence-do-for-stagnant-productivity-in-latin-america-and-the-556243">FMI document&#243;</a> que la productividad en la regi&#243;n lleva d&#233;cadas estancada. El crecimiento de productividad laboral entre 2012 y 2022 fue de cero. No bajo. Cero. Y una de las causas principales, seg&#250;n el mismo reporte, es la difusi&#243;n limitada de tecnolog&#237;a en el sector formal. Las empresas latinoamericanas no adoptan tecnolog&#237;a al ritmo que necesitan para cerrar la brecha con econom&#237;as avanzadas.</p><p>Frente a eso, la respuesta instintiva es: formemos m&#225;s profesionales <a href="https://es.wikipedia.org/wiki/Educaci%C3%B3n_STEM">STEM</a>. M&#225;s ingenieros, m&#225;s desarrolladores, m&#225;s especialistas en datos. Y eso es exactamente lo que estamos haciendo. El sesgo est&#225; en todo el sistema: desde los padres que presionan a sus hijos para que estudien ingenier&#237;a comercial o civil hasta las empresas que filtran candidatos por t&#237;tulo universitario y certificaciones.</p><p>Pero los datos dicen que esa apuesta tiene un problema de timing. La vida media de una habilidad profesional especializada ya se redujo a menos de cinco a&#241;os y sigue cayendo. Lo que aprendes en primero de ingenier&#237;a puede tener la mitad de su valor de mercado cuando te grad&#250;es.</p><p>Y hay una iron&#237;a que pocos est&#225;n viendo. El <a href="https://www.imf.org/-/media/files/publications/sdn/2024/english/sdnea2024001.pdf">FMI confirm&#243;</a> que los trabajos m&#225;s expuestos a la IA son los profesionales de cuello blanco: ingenieros de software, analistas financieros, contadores, abogados junior. Las ocupaciones con mayor exposici&#243;n son las que requieren m&#225;s educaci&#243;n formal. Mientras tanto, <a href="https://www.cnbc.com/2026/03/08/jobs-apocalypse-ai-proof-skilled-trades.html">los oficios especializados</a>, los que en Chile llamamos carreras t&#233;cnicas (electricistas, soldadores, t&#233;cnicos en refrigeraci&#243;n), tienen entre 4% y 6% de exposici&#243;n a la automatizaci&#243;n por IA. Un gasfiter necesita leer el contexto f&#237;sico, tomar decisiones en ambientes impredecibles, adaptar soluciones en tiempo real. Exactamente lo que la IA no sabe hacer.</p><p>La inversi&#243;n hist&#243;rica es completa: antes, la automatizaci&#243;n golpeaba a los trabajadores manuales. Ahora golpea a los profesionales universitarios. Y nuestro sistema educativo sigue empujando a todos hacia la universidad, hacia el t&#237;tulo profesional, hacia la carrera que la IA replica m&#225;s r&#225;pido.</p><p>Mientras invertimos en formar el perfil que la IA desplaza primero, no estamos formando el que la IA no puede replicar. Y no hablo solo de oficios manuales. Hablo de las capacidades fundacionales. El <a href="https://www.worldbank.org/en/news/press-release/2024/03/01/banco-mundial-bid-crisis-educacion-america-latina-caribe">Banco Mundial y el BID</a> publicaron un dato que lo resume: 3 de cada 4 j&#243;venes de 15 a&#241;os en Am&#233;rica Latina no pueden demostrar habilidades matem&#225;ticas fundamentales. M&#225;s de 1 de cada 2 no cumplen est&#225;ndares de lectura. Eso no es un problema de habilidades profesionales avanzadas. Es un problema de base: comprensi&#243;n, pensamiento cr&#237;tico, capacidad de interpretar contexto. Las habilidades fundacionales sobre las que se construye todo lo que Huang describe como &#8220;inteligente.&#8221;</p><p>No estamos fallando en ense&#241;ar IA. Estamos fallando en ense&#241;ar a pensar. Y sin esa base, no importa cu&#225;ntos bootcamps de programaci&#243;n o certificaciones de machine learning financiemos. Estamos construyendo el segundo piso sin el primero.</p><h2>Lo que esto cambia para ti</h2><p>Si diriges una empresa en Latinoam&#233;rica, lo que dijo Huang no es un tema de recursos humanos. Es un tema de estrategia.</p><p>La pr&#243;xima vez que armes un equipo para una iniciativa de IA, mira a qui&#233;n pones al frente. Si buscas al que m&#225;s sabe de tecnolog&#237;a en vez del que m&#225;s sabe de tu negocio, vas a terminar con una herramienta muy sofisticada haciendo exactamente lo mismo que hac&#237;as antes. Lo veo en nuestros clientes. Lo mide Stanford en datos de n&#243;mina. Lo dice el CEO de la empresa m&#225;s valiosa del planeta.</p><p>La habilidad profesional ya la tiene la m&#225;quina. La capacidad de ver m&#225;s all&#225; de lo obvio, de anticipar lo que no est&#225; en los datos, de leer lo que nadie dice pero todos piensan, eso sigue siendo humano. Pero no por mucho tiempo si seguimos sin tomarlo en serio. Porque la ventaja que no cultivas es la ventaja que pierdes.</p>]]></content:encoded></item><item><title><![CDATA[El día que la nube se volvió blanco de guerra]]></title><description><![CDATA[El 1 de marzo, un dron iran&#237; destruy&#243; un datacenter de AWS en Emiratos &#193;rabes. Por primera vez en la historia de la humanidad, la infraestructura cloud es blanco de guerra.]]></description><link>https://www.laultimainterfaz.com/p/el-dia-que-la-nube-se-volvio-blanco</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/el-dia-que-la-nube-se-volvio-blanco</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 10 Mar 2026 13:01:38 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/b1937d4c-3066-4eff-a2c9-9e0496429169_1848x975.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p><em>&#8220;Objects struck the data center, creating sparks and fire.&#8221;</em></p><p>Eso fue lo que apareci&#243; en el health dashboard de AWS a las 4:30 AM hora del Pac&#237;fico, el 1 de marzo de 2026. Objetos impactaron el datacenter. Chispas e incendio. Sin la palabra &#8220;dron&#8221;. Sin la palabra &#8220;ataque&#8221;. Sin la palabra &#8220;Ir&#225;n&#8221;. <em>Objects struck.</em> Como si hubiera ca&#237;do un rayo.</p><p>No fue un rayo.</p><p>Horas antes, la Guardia Revolucionaria Iran&#237; hab&#237;a lanzado 189 misiles bal&#237;sticos, 941 drones y 3 misiles crucero contra Emiratos &#193;rabes Unidos. La mayor represalia desde la Operaci&#243;n Epic Fury, el bombardeo conjunto de Estados Unidos e Israel contra Ir&#225;n iniciado el 28 de febrero. Entre los blancos: bases militares, terminales petroleras y, por primera vez en la historia, infraestructura de computaci&#243;n en la nube.</p><p>Los drones no alcanzaron una instalaci&#243;n. <a href="https://www.cnbc.com/2026/03/02/amazon-says-drone-strikes-damaged-3-facilities-in-uae-and-bahrain.html">Alcanzaron tres</a>. Dos datacenters de AWS en Emiratos &#193;rabes con impacto directo. Un tercero en Bahr&#233;in, da&#241;ado por un ataque cercano. La regi&#243;n ME-CENTRAL-1 report&#243; 109 servicios afectados. Bancos como ADCB y Emirates NBD. Fintechs de pagos como Alaan y Hubpay. Careem, el Uber del Golfo. <a href="https://www.snowflake.com/">Snowflake</a>, una de las plataformas de datos empresariales m&#225;s usadas del mundo. Cientos de operaciones offline, sin fecha de recuperaci&#243;n.</p><p>Y luego vino lo que nadie esperaba. <a href="https://www.cnbc.com/2026/03/04/amazon-bahrain-data-centers-targeted-iran-drone-strike.html">Fars News, la agencia estatal iran&#237;, public&#243; una declaraci&#243;n</a>: los ataques buscaban &#8220;identificar el rol de estos centros en el apoyo a las actividades militares y de inteligencia del enemigo.&#8221; Amazon declin&#243; comentar.</p><p>El mensaje estaba enviado. Esto no fue da&#241;o colateral.</p><p>Un dron de menos de $50,000 d&#243;lares dej&#243; offline infraestructura que serv&#237;a a una econom&#237;a entera. Y el comunicado de la empresa de cloud m&#225;s grande del mundo no ten&#237;a las palabras para describirlo. Cuando dise&#241;as para 99.99% de uptime, para redundancia, para failover autom&#225;tico, no dise&#241;as para un dron.</p><h2>Qu&#233; pas&#243;</h2><p>El 28 de febrero de 2026, a las 2:00 AM hora local de Teher&#225;n, aviones estadounidenses e israel&#237;es iniciaron la Operaci&#243;n Epic Fury: ataques coordinados contra instalaciones nucleares y militares iran&#237;es. M&#225;s de 300 objetivos en menos de 72 horas. La operaci&#243;n a&#233;rea m&#225;s intensa contra Ir&#225;n desde 1979.</p><p>La respuesta tard&#243; horas, no d&#237;as.</p><p>Entre el 1 y el 4 de marzo, la Guardia Revolucionaria lanz&#243; <a href="https://en.wikipedia.org/wiki/2026_Iranian_strikes_on_the_United_Arab_Emirates">189 misiles bal&#237;sticos, 941 drones y 3 misiles crucero</a> contra Emiratos &#193;rabes Unidos, Bahr&#233;in, Qatar y Arabia Saudita. Las defensas del Golfo interceptaron la mayor&#237;a: 161 de 174 misiles, los 8 crucero, 645 de 689 drones. Pero 44 impactaron. Tres civiles muertos. 78 heridos de m&#225;s de quince nacionalidades.</p><p>Los blancos principales fueron bases militares. Al Dhafra Air Base en Abu Dhabi. Instalaciones navales en Bahr&#233;in. Terminales petroleras.</p><p>Pero hubo una categor&#237;a nueva: datacenters.</p><p>Tres instalaciones de Amazon Web Services alcanzadas entre el 1 y el 2 de marzo. Dos en Emiratos &#193;rabes, parte de la regi&#243;n ME-CENTRAL-1, con impacto directo de drones. Una tercera en Bahr&#233;in, da&#241;ada por la onda de un ataque cercano. AWS report&#243; <a href="https://www.cnbc.com/2026/03/03/iran-war-uae-drone-strikes-aws-data-centers.html">109 servicios degradados o interrumpidos</a>.</p><p>Las ca&#237;das en cascada fueron inmediatas. ADCB y Emirates NBD perdieron sus plataformas digitales. Alaan y Hubpay offline. Careem, la app de transporte dominante en la regi&#243;n, dej&#243; de funcionar. Snowflake, plataforma de datos que usan miles de empresas globales, con interrupciones en toda la zona. Empresas de log&#237;stica entre Dubai, Riad y Mumbai perdieron visibilidad de sus cadenas de suministro.</p><p>Cuarenta y ocho horas despu&#233;s, <a href="https://www.cnbc.com/2026/03/04/amazon-bahrain-data-centers-targeted-iran-drone-strike.html">Fars News public&#243; su declaraci&#243;n</a>: los ataques buscaban &#8220;identificar el rol de estos centros en el apoyo a las actividades militares y de inteligencia del enemigo.&#8221;</p><p>Amazon emiti&#243; un segundo comunicado: <em>&#8220;In the UAE, two of our facilities were directly struck, while in Bahrain, a drone strike in close proximity to one of our facilities caused physical impacts to our infrastructure.&#8221;</em></p><p>Ning&#250;n otro cloud provider report&#243; da&#241;os. Microsoft, Google y Oracle operan en la regi&#243;n pero sus instalaciones no fueron alcanzadas.</p><p>Al momento de escribir esto, 7 de marzo, AWS a&#250;n no restablece completamente ME-CENTRAL-1.</p><h2>La ficci&#243;n que muri&#243;</h2><p>Todos en tecnolog&#237;a hemos dicho la misma frase: &#8220;La nube no existe. Son los servidores de otra empresa.&#8221; Era un chiste. Una forma de recordar que detr&#225;s del marketing hay fierro, cables y aire acondicionado industrial.</p><p>Despu&#233;s del 1 de marzo, el chiste dej&#243; de ser divertido.</p><p>Porque la conversaci&#243;n ya no es de qui&#233;n son los servidores. Es d&#243;nde est&#225;n. Y qu&#233; m&#225;s corren ah&#237; adentro.</p><p>AWS lanz&#243; ME-CENTRAL-1 en agosto de 2022. Parte de una carrera entre Amazon, Microsoft, Google y Oracle por servir al Golfo: gobiernos, petroleras, operaciones de defensa. Negocio enorme. Nadie puso una nota al pie que dijera &#8220;esta infraestructura se convierte en blanco militar si la regi&#243;n entra en conflicto.&#8221;</p><p>Pero ac&#225; est&#225; lo que me preocupa.</p><p>Los modelos de inteligencia artificial que hoy se usan para planificaci&#243;n militar corren en infraestructura cloud. Los que optimizan rutas de drones, procesan im&#225;genes satelitales, coordinan ataques. No estoy especulando. <a href="https://www.aljazeera.com/news/2024/4/23/what-is-project-nimbus-and-why-are-google-workers-protesting-israel-deal">Project Nimbus</a> es un contrato de $1.2 mil millones entre AWS, Google y el gobierno de Israel para proveer cloud e inteligencia artificial a sus fuerzas armadas. El JWCC es el contrato de $9 mil millones del Pent&#225;gono, repartido entre AWS, Google, Microsoft y Oracle.</p><p>No son contratos de almacenamiento. Son la columna vertebral computacional de operaciones militares activas.</p><p>Y ac&#225; se cierra el loop: la IA que planifica los ataques corre en los mismos servidores que reciben los drones de la represalia. Los modelos que procesaron im&#225;genes satelitales de objetivos iran&#237;es, que calcularon rutas de vuelo, que optimizaron el da&#241;o, viv&#237;an en infraestructura cloud en Medio Oriente. Ir&#225;n no atac&#243; el software. Atac&#243; el fierro.</p><p>Primera vez que la infraestructura que hace posible una guerra se convierte en objetivo de esa misma guerra.</p><p>Pi&#233;nsalo un segundo. La IA necesita datacenters. Los datacenters est&#225;n en alg&#250;n lugar f&#237;sico. Ese lugar es blanco ahora. Y la IA que se usa para atacar ese lugar... tambi&#233;n corre en datacenters.</p><h2>El dato que nadie quiere discutir</h2><p>En julio de 2021, cuando se filtr&#243; el contrato de Project Nimbus, m&#225;s de 400 empleados de Google y Amazon firmaron una carta p&#250;blica pidiendo que se cancelara. No quer&#237;an que su tecnolog&#237;a se usara para vigilancia y operaciones militares.</p><p>Google y Amazon respondieron con la misma l&#237;nea: el contrato era para &#8220;servicios generales de cloud computing&#8221;, no para &#8220;aplicaciones de armas.&#8221; La misma distinci&#243;n que la industria nuclear intent&#243; hacer durante d&#233;cadas entre uso pac&#237;fico y armamento.</p><p>El problema tiene nombre t&#233;cnico: dual-use. Un datacenter que sirve Netflix en Dubai puede correr modelos de targeting para un dron militar. El mismo GPU que entrena un modelo de lenguaje procesa im&#225;genes satelitales para identificar bater&#237;as antia&#233;reas. La infraestructura es la misma. Lo que cambia es el prompt.</p><p>Y el problema no es chico. Project Nimbus: <a href="https://www.aljazeera.com/news/2024/4/23/what-is-project-nimbus-and-why-are-google-workers-protesting-israel-deal">$1.2 mil millones</a>, AWS y Google, cloud e inteligencia artificial para las fuerzas armadas y agencias de inteligencia israel&#237;es. El contrato proh&#237;be a Google y Amazon negarle servicio a cualquier entidad del gobierno israel&#237;, incluido su ej&#233;rcito. JWCC: <a href="https://defensescoop.com/2022/12/07/pentagon-awards-aws-google-microsoft-and-oracle-spots-on-joint-warfighting-cloud-capability-solicitation/">$9 mil millones</a>, el Pent&#225;gono repartiendo cargas de trabajo militar entre los cuatro grandes. Al cierre de 2024 ya se hab&#237;an ejecutado casi $1,000 millones en &#243;rdenes de trabajo.</p><p>Despu&#233;s del 1 de marzo, el dual-use dej&#243; de ser un debate &#233;tico de empleados inc&#243;modos. Se convirti&#243; en un problema de derecho internacional.</p><p>El Protocolo de las Convenciones de Ginebra dice que la infraestructura civil no puede ser objetivo militar. Pero el Yale Law Journal public&#243; en 2024 un an&#225;lisis que pone el dedo en la llaga: el derecho internacional humanitario <a href="https://yalelawjournal.org/article/the-dangerous-rise-of-dual-use-objects-in-war">no reconoce &#8220;objeto de uso dual&#8221; como categor&#237;a legal</a>. Un objeto es civil o es militar. No hay punto medio. Y para que algo se convierta en objetivo leg&#237;timo, tiene que cumplir dos condiciones: que contribuya efectivamente a la acci&#243;n militar, y que destruirlo ofrezca una ventaja militar concreta.</p><p>Un datacenter que corre modelos de IA para operaciones de defensa cumple ambas condiciones.</p><p>Eso significa que el mismo rack de servidores que procesa tu app de delivery puede ser objetivo leg&#237;timo bajo cierta lectura del derecho internacional, si tres racks m&#225;s all&#225; corre inteligencia de se&#241;ales para una operaci&#243;n militar. No hay jurisprudencia. No hay precedente. El derecho humanitario fue escrito para un mundo donde una f&#225;brica de tanques era una f&#225;brica de tanques.</p><p>Y hay un dato m&#225;s que est&#225; pasando desapercibido. Desde marzo de 2023, Lloyd&#8217;s of London exige que todas las p&#243;lizas de cyber-seguros incluyan <a href="https://assets.lloyds.com/media/6335bcb0-e2a2-4378-8328-1ddf54828f2f/Y5433.pdf">cl&#225;usulas de exclusi&#243;n para ataques cibern&#233;ticos respaldados por estados</a> y operaciones durante conflictos armados. Si tu datacenter cae durante una guerra, tu p&#243;liza de cyber-riesgo no cubre. Tu p&#243;liza de propiedad probablemente tampoco, porque la mayor&#237;a excluyen actos de guerra.</p><p>&#191;Qui&#233;n absorbe el costo? Nadie sabe todav&#237;a.</p><h2>Lo que esto significa si eres CEO en Latinoam&#233;rica</h2><p>Puedo escuchar el argumento: &#8220;Esto pas&#243; en Medio Oriente. Es una guerra entre Ir&#225;n, Estados Unidos e Israel. &#191;Qu&#233; tiene que ver con mi operaci&#243;n en Santiago, Bogot&#225; o Ciudad de M&#233;xico?&#8221;</p><p>Probablemente nada. Hoy. Latinoam&#233;rica no est&#225; en guerra y la probabilidad de que un dron caiga en un datacenter en S&#227;o Paulo es cercana a cero. Pero eso no es lo relevante.</p><p>Lo relevante es que el 1 de marzo se estableci&#243; un precedente: los datacenters son blancos de guerra. Punto. Eso ya no se puede des-aprender. Cualquier planificador militar en cualquier pa&#237;s del mundo vio lo que pas&#243; en UAE y tom&#243; nota. Y cualquier aseguradora tambi&#233;n.</p><p>Eso cambia las reglas del juego para todos, incluido el CEO latinoamericano que nunca pens&#243; en geopol&#237;tica cuando firm&#243; su contrato de cloud.</p><p>Primer cambio: la conversaci&#243;n sobre d&#243;nde est&#225;n tus datos dej&#243; de ser t&#233;cnica. Hasta ahora, elegir una regi&#243;n de cloud era una decisi&#243;n de latencia y compliance regulatorio. Ahora tiene una dimensi&#243;n geopol&#237;tica. No porque S&#227;o Paulo vaya a ser bombardeada, sino porque tu proveedor de cloud opera globalmente, tiene contratos militares en otras regiones, y el precedente de que eso convierte su infraestructura en objetivo ya existe.</p><p>Segundo cambio: el riesgo de concentraci&#243;n se ve diferente. AWS tiene tres regiones en Latinoam&#233;rica. Google Cloud tiene S&#227;o Paulo, Santiago y Quer&#233;taro. Suena razonable hasta que entiendes que la redundancia geogr&#225;fica ya no se trata solo de desastres naturales o fallas t&#233;cnicas. Se trata de no tener todos tus datos en infraestructura de un proveedor que, en otra parte del mundo, es clasificable como objetivo militar.</p><p>Tercer cambio: los contratos de cloud y las p&#243;lizas de seguro que firmaste no contemplan esto. Las exclusiones de Lloyd&#8217;s por actos de guerra ya est&#225;n vigentes. Tu SLA te garantiza uptime contra fallas de infraestructura, no contra un conflicto armado. Si ma&#241;ana una escalada geopol&#237;tica afecta una regi&#243;n de AWS donde corren tus backups, &#191;qui&#233;n responde?</p><p>Nada de esto requiere p&#225;nico. Requiere que la pr&#243;xima vez que revises tu arquitectura de cloud, la conversaci&#243;n incluya una pregunta que antes no exist&#237;a: &#191;qu&#233; m&#225;s corre en la infraestructura donde viven mis datos, y qu&#233; implica eso en un mundo donde los datacenters son blancos militares?</p><h2>Lo que viene despu&#233;s</h2><p>Antes del 1 de marzo, la seguridad de un datacenter era un problema de ingenier&#237;a. Supresi&#243;n de incendios. Acceso biom&#233;trico. Generadores redundantes. Enfriamiento l&#237;quido. Per&#237;metro f&#237;sico con guardias y c&#225;maras. Todo dise&#241;ado para proteger contra incendios, fallos el&#233;ctricos, intrusos, desastres naturales.</p><p>Ning&#250;n datacenter del mundo fue dise&#241;ado para resistir un ataque militar.</p><p>Y ahora alguien tiene que responder la pregunta obvia: &#191;qu&#233; sigue? &#191;Los datacenters van a necesitar sistemas anti-dron como hoy tienen sistemas anti-incendio? &#191;Escudos de interferencia electromagn&#233;tica? &#191;Defensa a&#233;rea perimetral? Suena rid&#237;culo hasta que recuerdas que un dron de $50,000 acaba de dejar offline tres instalaciones de la empresa de cloud m&#225;s grande del planeta.</p><p>La pregunta no es si van a invertir en esto. La pregunta es qui&#233;n paga. &#191;AWS? &#191;El gobierno del pa&#237;s donde est&#225; el datacenter? &#191;El cliente enterprise que paga por disponibilidad? Los contratos actuales no dicen nada al respecto. Los SLAs cubren fallas de infraestructura, no actos de guerra. Las p&#243;lizas de seguro ya excluyeron este tipo de eventos. Hay un vac&#237;o y nadie quiere ser el primero en llenarlo.</p><p>Mientras tanto, el vocabulario del sector ya cambi&#243;. Antes del 1 de marzo habl&#225;bamos de uptime, latencia, compliance, data residency. Palabras de ingeniero. Problemas t&#233;cnicos con soluciones t&#233;cnicas.</p><p>Ahora la conversaci&#243;n incluye soberan&#237;a digital, riesgo geopol&#237;tico, uso dual, derecho humanitario, exclusiones de guerra. Palabras que ning&#250;n CTO esperaba tener que usar en una reuni&#243;n de board.</p><p>Los cloud providers van a responder como saben: m&#225;s regiones, m&#225;s zonas de disponibilidad, m&#225;s opciones de multi-cloud. Lo van a presentar como innovaci&#243;n. En realidad es una admisi&#243;n: no pueden proteger un edificio de un dron, as&#237; que van a distribuir el riesgo geogr&#225;ficamente. La misma l&#243;gica de la disuasi&#243;n nuclear aplicada a servidores.</p><p>No puedes defender un datacenter. Pero puedes hacer que destruir uno no sea suficiente.</p><p>El problema es que esa distribuci&#243;n cuesta. Cuesta en arquitectura, en latencia, en complejidad y en plata. Y ese costo lo va a pagar el cliente.</p><p>El 1 de marzo, la nube dej&#243; de ser una met&#225;fora. Se convirti&#243; en lo que siempre fue: edificios, cables, generadores y las personas que los operan. Edificios que se pueden destruir. Cables que se pueden cortar.</p><p>Y la IA que supuestamente iba a protegernos, la que detecta amenazas, optimiza defensas, anticipa ataques, corre en esos mismos edificios.</p><p>Esa es la paradoja. No la resuelve un SLA. No la resuelve un contrato multi-cloud. La resuelve entender que la tecnolog&#237;a m&#225;s poderosa que hemos construido depende de la infraestructura m&#225;s vulnerable que tenemos. Y que alguien, por primera vez, decidi&#243; apuntar ah&#237;.</p>]]></content:encoded></item><item><title><![CDATA[La Paradoja del CEO Eficiente]]></title><description><![CDATA[Cuando cada decisi&#243;n correcta produce el resultado equivocado]]></description><link>https://www.laultimainterfaz.com/p/la-paradoja-del-ceo-eficiente</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-paradoja-del-ceo-eficiente</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 03 Mar 2026 13:02:56 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/8346cd74-8dbc-497c-b35c-fcd675c8670b_2848x1504.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace unos d&#237;as un amigo me mand&#243; un art&#237;culo por WhatsApp. Como respeto su opini&#243;n, lo empec&#233; a leer y me encontr&#233; con un post bien escrito y bien fundamentado. Era un ejercicio de futurolog&#237;a financiera publicado por<a href="https://www.citriniresearch.com/p/2028gic"> Citrini Research</a>, un newsletter de an&#225;lisis macro con m&#225;s de 2.600 likes en los dos d&#237;as desde su publicaci&#243;n. El art&#237;culo est&#225; escrito como un memo de junio de 2028, mirando hacia atr&#225;s. En ese escenario ficticio, el S&amp;P 500 ha ca&#237;do 38% desde sus m&#225;ximos, el desempleo toca 10,2% y la econom&#237;a estadounidense ya no se parece a la que conocemos.</p><p>La causa no es una pandemia, ni una burbuja inmobiliaria, ni una guerra. Es la inteligencia artificial. No porque haya fallado, sino porque funcion&#243; demasiado bien.</p><p>El art&#237;culo introduce un concepto que se me qued&#243; grabado: &#8220;Ghost GDP&#8221;, PIB fantasma. Producci&#243;n que aparece en las cuentas nacionales pero que nunca circula por la econom&#237;a real. Un cluster de GPUs en Dakota del Norte genera la producci&#243;n que antes generaban 10.000 trabajadores de cuello blanco en Manhattan. El PIB registra esa producci&#243;n. Pero esos 10.000 salarios ya no existen. No se gastan en restaurantes, no pagan hipotecas, no compran autos. Y los autores rematan con una pregunta que lo resume todo: &#191;cu&#225;nto gastan las m&#225;quinas en bienes discrecionales?</p><p>La respuesta es cero.</p><p>Normalmente descartar&#237;a un ejercicio como este. Futurolog&#237;a para inversores, ciencia ficci&#243;n con gr&#225;ficos de Bloomberg. Pero esta vez hice algo distinto: fui a buscar si los datos reales de febrero del 2026, y ya muestran se&#241;ales de lo que Citrini proyecta para 2028.</p><p>Lo que encontr&#233; me dej&#243; pensando m&#225;s de lo que esperaba.</p><p>La participaci&#243;n del trabajo en el ingreso nacional de Estados Unidos cay&#243; a 53,8% en el tercer trimestre de 2025. Es el registro m&#225;s bajo desde que el<a href="https://www.bls.gov/news.release/pdf/prod2.pdf"> Bureau of Labor Statistics comenz&#243; a medir esto en 1947</a>. Setenta y ocho a&#241;os de datos. Mientras tanto, las ganancias de las Fortune 500 alcanzaron un r&#233;cord de USD 1,87 billones en 2024. Y la econom&#237;a estadounidense cre&#243; solo 584.000 empleos en 2025, contra 2 millones el a&#241;o anterior.</p><p>Las empresas producen m&#225;s. Ganan m&#225;s. Y los trabajadores reciben la menor porci&#243;n de la riqueza en casi ocho d&#233;cadas de medici&#243;n.</p><p>Eso no es futurolog&#237;a. Es un dato publicado hace un mes.</p><h2><strong>La paradoja</strong></h2><p>Imagina que eres CEO de una empresa mediana. Tu directorio te presiona por m&#225;rgenes. Tu competencia ya est&#225; usando agentes de IA para automatizar soporte al cliente, generaci&#243;n de reportes, an&#225;lisis de datos, c&#243;digo. T&#250; haces lo que cualquier ejecutivo responsable har&#237;a: adoptas IA, reduces costos laborales, aumentas productividad. Tus n&#250;meros mejoran. Tu deber fiduciario est&#225; cumplido.</p><p>Nadie te puede culpar. Es la decisi&#243;n correcta.</p><p>Pero los clientes de tu empresa son los empleados de otras empresas que est&#225;n tomando exactamente la misma decisi&#243;n. Cuando<a href="https://fortune.com/2025/09/02/salesforce-ceo-billionaire-marc-benioff-ai-agents-jobs-layoffs-customer-service-sales/"> Salesforce despide 4.000 personas de soporte al cliente</a> porque la IA maneja el 50% del trabajo (seg&#250;n su propio CEO, Marc Benioff), esas 4.000 personas reducen su gasto. Cuando JPMorgan le dice a sus gerentes que eviten contratar mientras despliegan IA, y Goldman Sachs anuncia una revisi&#243;n integral de c&#243;mo organizar su gente con inteligencia artificial, y el CEO de Ford advierte que la IA va a<a href="https://www.cnbc.com/2025/10/22/ai-taking-white-collar-jobs-economists-warn-much-more-in-the-tank.html"> reemplazar literalmente a la mitad de los trabajadores de cuello blanco</a>, la se&#241;al es clara.</p><p>Cada recorte individual es racional. El efecto acumulado es otra cosa.</p><p>Mientras escrib&#237;a este art&#237;culo,<a href="https://x.com/jack/status/2027129697092731343"> Jack Dorsey public&#243; en X</a> el memo con el que redujo Block (la empresa detr&#225;s de Square y Cash App) de 10.000 a 6.000 empleados. La acci&#243;n subi&#243; 24% en horas. Y Dorsey escribi&#243; algo que deber&#237;a inquietar a cualquiera: cree que la mayor&#237;a de las empresas van a llegar a la misma conclusi&#243;n y hacer cambios estructurales similares dentro del pr&#243;ximo a&#241;o. Como<a href="https://tomtunguz.com/are-we-seeing-layoffs-from-ai/"> analiz&#243; Tomasz Tunguz</a>, lo que distingue esta ola de recortes es que no son empresas en problemas. Son empresas en crecimiento que deciden que pueden operar con la mitad de la gente. El ingreso por empleado de Block salta de USD 2,4 millones a USD 4 millones despu&#233;s del recorte. Una vez que un competidor demuestra esa eficiencia, no seguirlo se vuelve insostenible.</p><p>Yo lo llamo la paradoja del CEO eficiente: est&#225;s optimizando tu empresa mientras destruyes el mercado que la alimenta. Es la paradoja del ahorro de Keynes, versi&#243;n 2026, aplicada a la automatizaci&#243;n corporativa.</p><p>Lo que me resulta m&#225;s inquietante es un hallazgo que public&#243;<a href="https://hbr.org/2026/01/companies-are-laying-off-workers-because-of-ais-potential-not-its-performance"> Harvard Business Review en enero de 2026</a>: muchas empresas est&#225;n despidiendo bas&#225;ndose en lo que la IA <em>podr&#237;a</em> hacer, no en lo que ya est&#225; haciendo. Thomas Davenport, profesor del MIT, y Laks Srinivasan lo documentan con casos concretos. Es decir, ni siquiera necesitamos que la IA funcione perfectamente para que el ciclo de despidos se active. Basta con que los CEOs crean que va a funcionar. La expectativa ya tiene efectos econ&#243;micos reales.</p><p>Un comentarista del art&#237;culo de Citrini, que dice trabajar en una de las 7 Magn&#237;ficas en la divisi&#243;n de Cloud e IA, lo puso de una forma que no puedo mejorar: no importa si realmente puedes reemplazar tu SaaS con IA. Lo que importa es que el comprador <em>crea</em> que puede. Eso ya destruye tu poder de negociaci&#243;n.</p><p>La IA no necesita reemplazarte para hacerte da&#241;o. Basta con que tu jefe crea que puede.</p><h2><strong>Los datos que ya lo confirman</strong></h2><p>Quiero ser preciso ac&#225;. No estoy armando un argumento con an&#233;cdotas y titulares. Cada dato que sigue viene de instituciones que no tienen incentivo para exagerar.</p><p><a href="https://www.pimco.com/us/en/insights/why-us-productivity-gains-no-longer-reach-workers">PIMCO</a>, la gestora de renta fija m&#225;s grande del mundo con m&#225;s de USD 1,7 trillones bajo administraci&#243;n, public&#243; en enero un an&#225;lisis de Tiffany Wilding donde documenta que la productividad en EE.UU. creci&#243; ~2% en 2025, pero el crecimiento real de salarios se desaceler&#243; a apenas por encima del 1%. Lo llaman la &#8220;econom&#237;a en K&#8221;: las empresas intensivas en capital que adoptan IA van para arriba, los trabajadores y sus hogares van para abajo. Y no es un art&#237;culo de opini&#243;n. Es un an&#225;lisis para inversores institucionales sobre c&#243;mo posicionar portafolios.</p><p>Hace unos d&#237;as, PIMCO public&#243;<a href="https://www.pimco.com/us/en/insights/the-ai-driven-productivity-tide-may-not-lift-all-boats"> un segundo an&#225;lisis</a> donde advierten que la IA probablemente no sea una marea de productividad que levante todos los botes, y que el riesgo es que gran parte del valor que crea la IA se acumule principalmente en manos de los due&#241;os del capital, no de los trabajadores. Cuando PIMCO dice esto, no es activismo. No es alarmismo. Es una gestora dici&#233;ndole a sus clientes: cuidado, los beneficios de la IA no se est&#225;n distribuyendo como esper&#225;bamos.</p><p>En el mundo acad&#233;mico, el Stanford Digital Economy Lab public&#243; un estudio llamado<a href="https://digitaleconomy.stanford.edu/publications/canaries-in-the-coal-mine/"> &#8220;Canarios en la mina de carb&#243;n&#8221;</a>, liderado por Erik Brynjolfsson (uno de los economistas de tecnolog&#237;a m&#225;s citados del mundo) usando datos de n&#243;mina de ADP que cubren millones de trabajadores estadounidenses. Encontraron que trabajadores de 22 a 25 a&#241;os en ocupaciones expuestas a la IA sufrieron una ca&#237;da relativa del 16% en empleo desde la adopci&#243;n masiva de IA generativa.<a href="https://digitaleconomy.stanford.edu/news/canaries-interest-rates-and-timinga-more-on-recent-drivers-of-employment-changes-for-young-workers/"> Recientemente actualizaron los datos</a>: la tendencia se acelera y no muestra se&#241;ales de reversi&#243;n. Un detalle que importa: la ca&#237;da se concentra en roles donde la IA automatiza, es decir, reemplaza el trabajo humano. En roles donde la IA aumenta la capacidad del trabajador, el empleo se mantiene o crece. La diferencia entre automatizar y aumentar no es sem&#225;ntica. Es la diferencia entre tener trabajo y no tenerlo.</p><p><a href="https://www.marketplace.org/story/2026/02/02/productivitys-growing-why-arent-wages-keeping-up">Marketplace (NPR) report&#243; el 2 de febrero</a> que la productividad sigue fuerte pero los salarios no la acompa&#241;an. Economistas de Wells Fargo confirman que las empresas est&#225;n invirtiendo en equipamiento en vez de subir sueldos. Ben Zipperer, del Economic Policy Institute, calcul&#243; que los trabajadores estadounidenses producen casi el doble que en 1980, pero su paga creci&#243; solo un tercio de eso.</p><p>Y los despidos ya no son hipot&#233;ticos. El 2025 cerr&#243; con 1,17 millones de recortes en EE.UU., el nivel m&#225;s alto desde la pandemia. De esos, 55.000 fueron directamente atribuidos a IA seg&#250;n Challenger, Gray &amp; Christmas.<a href="https://www.cnbc.com/2025/11/04/white-collar-layoffs-ai-cost-cutting-tariffs.html"> Klarna redujo personal un 40%. Salesforce elimin&#243; 4.000 roles. Amazon cort&#243; 14.000 puestos corporativos.</a> Y ahora Block corta otros 4.000 de un solo golpe. CNBC nota algo interesante: algunos expertos hablan de &#8220;AI-washing&#8221;, empresas que culpan a la IA por recortes que tienen otras causas. Pero eso refuerza el punto en vez de debilitarlo. Incluso la <em>narrativa</em> de la IA como reemplazo ya produce efectos econ&#243;micos reales, independiente de si la IA est&#225; haciendo el trabajo o no.</p><p>Todo esto es Estados Unidos. Pero nosotros no vivimos en Estados Unidos.</p><h2><strong>&#191;Y Am&#233;rica Latina?</strong></h2><p>Ac&#225; es donde la conversaci&#243;n se pone inc&#243;moda.</p><p>El<a href="https://www.imf.org/en/Publications/WP/Issues/2024/10/11/What-Can-Artificial-Intelligence-Do-for-Stagnant-Productivity-in-Latin-America-and-the-556243"> FMI calcul&#243; en un documento de trabajo</a> que menos del 40% de los empleos en Am&#233;rica Latina tienen alta exposici&#243;n a la IA, comparado con el 60% en econom&#237;as avanzadas. La raz&#243;n:<a href="https://www.imf.org/en/blogs/articles/2025/03/20/how-artificial-intelligence-can-boost-productivity-in-latin-america"> m&#225;s de la mitad de nuestros empleos son informales</a>. Negocios peque&#241;os, sin acceso a sistemas financieros, sin escala para adoptar tecnolog&#237;a.</p><p>A primera vista parece una buena noticia. No nos van a automatizar porque no somos lo suficientemente productivos como para que valga la pena automatizarnos.</p><p>Pero eso es como celebrar que no te robaron porque no ten&#237;as nada.</p><p>Un<a href="https://publications.iadb.org/en/potential-distributive-impact-ai-driven-labor-changes-latin-america"> estudio del Banco Interamericano de Desarrollo</a> que analiz&#243; 14 pa&#237;ses de la regi&#243;n encontr&#243; que los trabajadores m&#225;s expuestos al desplazamiento por IA en Am&#233;rica Latina son los formales, los educados, los j&#243;venes y las mujeres. Exactamente las personas que nuestras econom&#237;as necesitan que ganen m&#225;s y consuman m&#225;s para crecer. La IA en la regi&#243;n no amenaza al vendedor ambulante. Amenaza al analista financiero, a la ingeniera de software, al joven profesional que acaba de entrar al mercado formal. Los mismos perfiles que Stanford encontr&#243; siendo desplazados en EE.UU.</p><p>Y hay un n&#250;mero que me persigue: la productividad laboral en Am&#233;rica Latina creci&#243; 0,5% anual desde 1980. En Asia del Este creci&#243; 4,2%. En Estados Unidos, 1,4%. Entre 2012 y 2022, nuestro crecimiento de productividad fue literalmente cero. No es una exageraci&#243;n. Es un dato del FMI.</p><p>Esto crea una paradoja doble para el CEO latinoamericano. Si no adoptas IA, te quedas atr&#225;s en una carrera de productividad que ya estamos perdiendo hace cuatro d&#233;cadas. Pero si la adoptas agresivamente, generas el mismo Ghost GDP que estamos viendo en EE.UU., solo que en econom&#237;as con redes de seguridad social m&#225;s d&#233;biles, mercados de cr&#233;dito m&#225;s fr&#225;giles y una desigualdad de ingreso que ya es la peor del planeta.</p><p>Yo creo que la respuesta no es elegir entre adoptar o no adoptar. Eso es un falso dilema. La respuesta es adoptar pensando en la cadena completa. Y ah&#237; es donde la mayor&#237;a de los CEOs que conozco en la regi&#243;n se quedan cortos. Miden la eficiencia de su operaci&#243;n como si existiera en un vac&#237;o. Cu&#225;ntos puestos elimin&#233;, cu&#225;nto ahorr&#233; en n&#243;mina, cu&#225;nto subi&#243; mi margen. Pero tu empresa no existe en un vac&#237;o. Existe en un ecosistema donde tus clientes son los empleados de otras empresas. Si todos optimizan al mismo tiempo sin pensar en el sistema, el sistema colapsa.</p><h2><strong>Lo que viene</strong></h2><p>Vuelvo al art&#237;culo de Citrini. Los autores son honestos: dicen que es un escenario, no una predicci&#243;n. Est&#225;n seguros de que algunas partes no se van a materializar. Y probablemente tengan raz&#243;n. El escenario completo, con S&amp;P en 3.500 y desempleo sobre 10%, requiere que todo salga mal al mismo tiempo. Y la historia nos ense&#241;a que rara vez todo sale mal al mismo tiempo.</p><p>Pero la pregunta que importa no es si el escenario completo se cumple. Es cu&#225;ntas de las piezas iniciales ya est&#225;n en su lugar.</p><p>Despu&#233;s de semanas revisando datos, mi respuesta es: m&#225;s de las que me gustar&#237;a. PIMCO lo ve en sus modelos. Stanford lo mide en datos de n&#243;mina. Los CEOs de las empresas m&#225;s grandes del mundo lo dicen en p&#250;blico sin ning&#250;n pudor. La participaci&#243;n laboral est&#225; en m&#237;nimos de 78 a&#241;os. Y apenas estamos empezando.</p><p>Si eres CEO en Am&#233;rica Latina y est&#225;s implementando IA (y deber&#237;as estarlo), te pido que hagas un ejercicio. No midas solo cu&#225;nto te ahorras por empleado reemplazado. Preg&#250;ntate tambi&#233;n qui&#233;n le va a comprar a tu empresa cuando todos los CEOs de tu industria hagan exactamente lo mismo que t&#250;.</p><p>La eficiencia individual sin pensamiento sist&#233;mico tiene un nombre viejo. Se llama tragedia de los comunes. Y la inteligencia artificial, si no somos cuidadosos con c&#243;mo la adoptamos, puede convertirse en la tragedia de los comunes m&#225;s costosa de la historia econ&#243;mica.</p><p>La paradoja del CEO eficiente no tiene soluci&#243;n individual. Ese es precisamente el problema.</p>]]></content:encoded></item><item><title><![CDATA[El otro ensayo de Darío Amodei: lo que imaginó para el futuro antes de advertirnos sobre lo que puede salir mal]]></title><description><![CDATA[En 2024, el CEO de Anthropic escribi&#243; su visi&#243;n m&#225;s ambiciosa: un mundo donde la IA cura enfermedades, reduce la pobreza y duplica la expectativa de vida. Mi lectura desde Latinoam&#233;rica.]]></description><link>https://www.laultimainterfaz.com/p/el-otro-ensayo-de-dario-amodei-lo</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/el-otro-ensayo-de-dario-amodei-lo</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Wed, 18 Feb 2026 13:00:45 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/951dcf8a-9437-44cc-a6ec-c38ef1741561_1344x768.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace unos d&#237;as publiqu&#233; mi an&#225;lisis de &#8220;<a href="https://www.laultimainterfaz.com/p/la-confesion-de-dario-amodei-lo-que">The Adolescence of Technology</a>&#8220;, el ensayo donde Dario Amodei cataloga todo lo que puede salir mal con la IA. Bioterrorismo. Vigilancia totalitaria. Desempleo masivo. Concentraci&#243;n de riqueza que &#8220;romper&#225; la sociedad&#8221;.</p><p>Pero ese ensayo fue el segundo que Amodei escribi&#243;. El primero se llama &#8220;<a href="https://darioamodei.com/essay/machines-of-loving-grace">Machines of Loving Grace</a>&#8220; y lo public&#243; en octubre de 2024. Es exactamente lo opuesto: una visi&#243;n detallada de todo lo que la IA puede hacer por la humanidad si las cosas salen bien.</p><p>Decid&#237; empezar por publicar mi an&#225;lisis del ensayo pesimista porque creo que el orden importa: es m&#225;s f&#225;cil evaluar una promesa cuando ya conoces los riesgos. Ahora que ya tienes el mapa de lo que puede salir mal, podemos mirar la visi&#243;n optimista con los pies en la tierra.</p><p>Y hay algo interesante en la secuencia del propio Amodei: &#233;l hizo el camino inverso. Escribi&#243; primero el sue&#241;o y despu&#233;s la pesadilla. Como si imaginar todo lo bueno lo hubiera forzado a confrontar todo lo malo.</p><h2><strong>La inteligencia no es polvo de hadas</strong></h2><p>El aporte intelectual m&#225;s valioso de este ensayo es un concepto que Amodei llama &#8220;retornos marginales a la inteligencia&#8221;. La pregunta que propone no es &#8220;&#191;qu&#233; tan inteligente ser&#225; la IA?&#8221; sino &#8220;&#191;en qu&#233; problemas rinde m&#225;s esa inteligencia?&#8221;</p><p>Porque la inteligencia, por muy superior que sea, choca contra los l&#237;mites del mundo real: La velocidad del mundo f&#237;sico (las c&#233;lulas se dividen al ritmo que se dividen, los experimentos toman el tiempo que toman). La falta de datos (a veces la informaci&#243;n simplemente no existe). La complejidad intr&#237;nseca de ciertos sistemas. Las restricciones humanas (leyes, regulaciones, h&#225;bitos). Y las leyes de la f&#237;sica, que son absolutas.</p><p>Este framework es lo que separa a Amodei de los tecno-optimistas gen&#233;ricos. No es &#8220;la IA lo resuelve todo m&#225;gicamente&#8221;. Es &#8220;la inteligencia es extraordinariamente poderosa, pero no es magia&#8221;. Esa sobriedad es rara en un CEO de una empresa de tecnolog&#237;a, y es lo que hace que sus predicciones merezcan atenci&#243;n.</p><h2><strong>Las cinco promesas</strong></h2><p>El ensayo organiza su visi&#243;n en cinco &#225;reas. No voy a repetir su ensayo (te invito a leerlo completo <a href="https://darioamodei.com/essay/machines-of-loving-grace">aqu&#237;</a>). Quiero recorrer cada una con mi propia lectura.</p><p><strong>Biolog&#237;a y salud.</strong> La predicci&#243;n central es radical: la IA podr&#237;a comprimir 50 a 100 a&#241;os de progreso biol&#243;gico en 5 a 10 a&#241;os. Cura de la mayor&#237;a del c&#225;ncer. Prevenci&#243;n del Alzheimer. Duplicar la expectativa de vida a 150 a&#241;os. Suena a ciencia ficci&#243;n, pero el argumento es m&#225;s serio de lo que parece. Amodei, que fue investigador en biolog&#237;a antes de fundar Anthropic (tiene<a href="https://scholar.google.com/citations?user=6-e-ZBEAAAAJ"> publicaciones acad&#233;micas</a> en el campo), sostiene que la mayor parte del progreso biol&#243;gico viene de un n&#250;mero min&#250;sculo de descubrimientos (CRISPR, vacunas mRNA, terapias CAR-T) y que esos descubrimientos tienen altos retornos a la inteligencia. M&#225;s gente brillante trabajando en paralelo, m&#225;s descubrimientos de ese calibre. Los datos recientes le dan cierta raz&#243;n: Insilico Medicine desarroll&#243; un f&#225;rmaco con IA que pas&#243; de identificaci&#243;n a ensayo cl&#237;nico Fase I en<a href="https://www.sciencedirect.com/science/article/abs/pii/S0031699725075118"> 18 meses, un proceso que normalmente toma de 3 a 5 a&#241;os</a>. AstraZeneca reporta que la IA ha acelerado el dise&#241;o de f&#225;rmacos en<a href="https://www.biospace.com/business/ai-is-changing-pharmas-bottom-line-now-but-not-through-splashy-drug-discovery"> m&#225;s del 50%</a>. No es el siglo comprimido todav&#237;a, pero la direcci&#243;n es clara.</p><p><strong>Neurociencia y salud mental.</strong> El autor aplica el mismo framework a la neurociencia, con una adici&#243;n: lo que estamos aprendiendo de la IA misma puede ayudar a entender el cerebro humano. Los trabajos de<a href="https://www.anthropic.com/research/mapping-mind-language-model"> interpretabilidad de modelos</a> de Anthropic abordan la misma pregunta fundamental: &#191;c&#243;mo cooperan redes de unidades simples para producir computaciones complejas? De hecho, un<a href="https://distill.pub/2020/circuits/frequency-edges/"> mecanismo computacional descubierto en sistemas de IA</a> fue recientemente<a href="https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10055119/"> redescubierto en cerebros de ratones</a>. Las predicciones concretas: cura de la mayor&#237;a de enfermedades mentales, mejora de problemas cotidianos como ansiedad o falta de foco, y una mejora general de la experiencia humana. Amodei agrega un punto que me parece importante: sospecha que la mejora de la salud mental atenuar&#225; muchos problemas que hoy parecen pol&#237;ticos o econ&#243;micos. Una poblaci&#243;n m&#225;s sana mentalmente toma mejores decisiones y es menos susceptible a la manipulaci&#243;n.</p><p><strong>Gobernanza y paz.</strong> Amodei es directo: no hay raz&#243;n estructural para creer que la IA favorecer&#225; la democracia. Si queremos ese resultado, hay que pelear por &#233;l. Propone una coalici&#243;n de democracias que mantenga ventaja en IA. Para Latinoam&#233;rica esta secci&#243;n es la m&#225;s distante (no controlamos la cadena de suministro de chips), pero hay un punto que merece atenci&#243;n: la IA como herramienta para mejorar servicios p&#250;blicos. La idea de un sistema que ayude a los ciudadanos a recibir todo lo que legalmente les corresponde del gobierno, reduciendo la discrecionalidad y la corrupci&#243;n en tr&#225;mites, es potencialmente transformadora para pa&#237;ses con instituciones que funcionan a medias.</p><p>Las dos &#225;reas restantes son las que m&#225;s conectan con los temas que he venido tratando en este blog, as&#237; que voy a dedicarles m&#225;s espacio.</p><h2><strong>Desarrollo econ&#243;mico: donde la visi&#243;n se vuelve borrosa</strong></h2><p>El CEO de Anthropic reconoce que est&#225; &#8220;menos confiado&#8221; en que la IA pueda resolver la desigualdad m&#225;s que en su capacidad para inventar tecnolog&#237;as. Y con raz&#243;n. No basta con inventar una vacuna. Hay que fabricarla, distribuirla, convencer a la gente de usarla, y hacerlo en pa&#237;ses con instituciones d&#233;biles y recursos limitados.</p><p>Los<a href="https://data.worldbank.org/?locations=ZG-8S-Z4-Z7-ZJ"> datos del Banco Mundial</a> dan la escala del desaf&#237;o: el PIB per c&#225;pita de &#193;frica subsahariana es de aproximadamente 1.533 d&#243;lares (2024). El de Latinoam&#233;rica, unos 10.738 d&#243;lares. El de Estados Unidos, alrededor de 75.000 d&#243;lares.</p><p>El ensayo ofrece hip&#243;tesis esperanzadoras: &#8220;ministros de finanzas de IA&#8221; que repliquen el &#233;xito de los Tigres Asi&#225;ticos, una segunda Revoluci&#243;n Verde, crecimiento del 20% anual en el mundo en desarrollo como &#8220;escenario ideal&#8221;. Pero su an&#225;lisis de la distribuci&#243;n es vago.</p><p>Creo que tiene raz&#243;n en el diagn&#243;stico pero subestima la dificultad del &#250;ltimo kil&#243;metro. Y esto lo veo todos los d&#237;as en mi trabajo como CEO de <a href="http://www.yom.ai">Yom</a>.</p><p>La inteligencia se est&#225; democratizando. Cualquier persona puede acceder a modelos de IA de frontera por unos pocos d&#243;lares al mes. Pero acceso a la inteligencia no es lo mismo que capacidad de usarla. &#191;Qui&#233;n le va a explicar al agricultor en <a href="https://es.wikipedia.org/wiki/Huancavelica">Huancavelica</a> c&#243;mo usar estas herramientas? &#191;Qui&#233;n va a adaptar un modelo de diagn&#243;stico m&#233;dico al contexto de una posta rural en Centroam&#233;rica? &#191;Qui&#233;n va a integrar la IA en el flujo de trabajo de una pyme familiar que todav&#237;a lleva sus cuentas en un cuaderno?</p><p>La respuesta no son las empresas de IA en San Francisco. Son los incumbentes locales: las empresas que ya tienen distribuci&#243;n, clientes, confianza y conocimiento del terreno.</p><p>Amodei mira el mundo desde la oferta: qu&#233; puede hacer la IA. Desde Latinoam&#233;rica necesitamos mirar desde la demanda: qui&#233;n necesita qu&#233;, y c&#243;mo se lo hacemos llegar. No vamos a competir en la capa de infraestructura (esa carrera requiere inversiones de miles de millones de d&#243;lares que no tenemos). Pero podemos ser los que lleven estas promesas al mundo real. Al vendedor en una tienda de barrio, al m&#233;dico sin especialistas, al emprendedor que necesita capacidad de an&#225;lisis que antes solo ten&#237;a una consultora internacional.</p><p>La restricci&#243;n de capital que tenemos en Latinoam&#233;rica no es solo una limitaci&#243;n. Es lo que nos fuerza a pensar en aplicaci&#243;n y distribuci&#243;n, que es donde se captura el valor real.</p><h2><strong>Trabajo y sentido: la pregunta que realmente nos quita el sue&#241;o</strong></h2><p>El ensayo hace una distinci&#243;n que me parece fundamental: el problema del sentido es m&#225;s f&#225;cil que el problema econ&#243;mico.</p><p>Sobre el sentido, su argumento es simple: la mayor&#237;a de las personas no son las mejores del mundo en nada, y eso no parece molestarles demasiado. Disfrutamos de actividades que no generan valor econ&#243;mico. Que una IA pueda hacer algo mejor que t&#250; no le quita sentido a que t&#250; lo hagas.</p><p>El problema econ&#243;mico es m&#225;s dif&#237;cil. A largo plazo, cuando la IA pueda hacer todo m&#225;s barato que un humano, el modelo econ&#243;mico actual dejar&#225; de funcionar. La respuesta de Amodei es honesta: &#8220;No s&#233; c&#243;mo se resolver&#225; esto&#8221;.</p><p>Aqu&#237; conecto con algo que he escrito antes en La &#218;ltima Interfaz. El ensayo valida (probablemente sin propon&#233;rselo) la distinci&#243;n que hice en mi art&#237;culo sobre<a href="https://www.laultimainterfaz.com/p/el-emprendimiento-la-unica-alternativa"> el emprendimiento como futuro del trabajo</a>: la diferencia entre carreras &#8220;l&#237;quidas&#8221; e &#8220;il&#237;quidas&#8221;. Las carreras l&#237;quidas (predecibles, estandarizadas) caen primero ante la automatizaci&#243;n. Las il&#237;quidas (emprendimiento, combinaciones &#250;nicas de habilidades) resisten m&#225;s porque su impredecibilidad es lo que la IA todav&#237;a no domina.</p><p>Pero quiero ir un paso m&#225;s all&#225;. Amodei argumenta que &#8220;la civilizaci&#243;n ha navegado cambios econ&#243;micos mayores en el pasado: de caza y recolecci&#243;n a agricultura, de agricultura a feudalismo, de feudalismo a industrialismo&#8221;. Es verdad. Pero esas transiciones tomaron generaciones. Si la IA comprime un siglo de progreso en una d&#233;cada, estamos hablando de hacer una transici&#243;n econ&#243;mica civilizacional en el tiempo que toma criar un hijo.</p><p>Eso no se resuelve con un programa de reentrenamiento laboral. Requiere repensar la relaci&#243;n entre trabajo, valor y dignidad desde cero.</p><h2><strong>La tensi&#243;n como br&#250;jula</strong></h2><p>Amodei escribi&#243; primero el sue&#241;o y despu&#233;s la pesadilla. No porque cambiara de opini&#243;n, sino porque ambos son ciertos al mismo tiempo. El mismo &#8220;pa&#237;s de genios&#8221; que puede curar el c&#225;ncer puede dise&#241;ar un arma biol&#243;gica. La misma IA que puede duplicar el crecimiento econ&#243;mico puede concentrar riqueza de formas nunca vistas.</p><p>La posici&#243;n correcta, especialmente para quienes lideramos empresas o tomamos decisiones, es vivir en esa tensi&#243;n. Actuar con la ambici&#243;n que justifica el ensayo luminoso. Prepararse con la seriedad que exige el oscuro.</p><p>Para quienes operamos desde Latinoam&#233;rica, esa tensi&#243;n tiene una traducci&#243;n pr&#225;ctica. No vamos a construir los modelos de frontera ni a ganar la carrera de infraestructura. Pero s&#237; podemos ser quienes lleven estas promesas al &#250;ltimo kil&#243;metro, a las personas que no se ven desde San Francisco. Tenemos los clientes, la distribuci&#243;n, la confianza. Y ahora tenemos acceso a una inteligencia que antes estaba reservada para quienes pod&#237;an pagar equipos de cientos de ingenieros.</p><p>Eso no es poco. Es, posiblemente, la oportunidad m&#225;s grande que ha tenido esta regi&#243;n en d&#233;cadas.</p><p>Amodei termina <em>Machines of Loving Grace</em> diciendo que si todo esto realmente sucede, sospecha que todos los que lo presencien se sorprender&#225;n por el efecto que tendr&#225; sobre ellos. No por los beneficios personales, sino por la experiencia de ver un conjunto de ideales largamente sostenidos materializarse de golpe.</p><p>La pregunta no es si el futuro ser&#225; bueno o malo. La pregunta es qu&#233; vamos a hacer nosotros para que sea m&#225;s parecido al sue&#241;o que a la pesadilla.</p>]]></content:encoded></item><item><title><![CDATA[La confesión de Darío Amodei: lo que el CEO de Anthropic cree que viene (y por qué deberías prestarle atención)]]></title><description><![CDATA[El hombre que construye una de las IAs m&#225;s avanzadas del mundo acaba de publicar un mapa de los pr&#243;ximos 10 a&#241;os. No es ciencia ficci&#243;n. Es un plan de batalla.]]></description><link>https://www.laultimainterfaz.com/p/la-confesion-de-dario-amodei-lo-que</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-confesion-de-dario-amodei-lo-que</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Fri, 06 Feb 2026 13:03:40 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/84fcea4a-8e40-4e21-921a-2bc08d68f41d_2464x1728.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El 26 de enero de 2026, Dario Amodei public&#243; un ensayo de 20.000 palabras titulado &#8220;<a href="https://www.darioamodei.com/essay/the-adolescence-of-technology">The Adolescence of Technology</a>&#8220;. No es un comunicado de prensa ni un manifiesto tecno-optimista. Es algo mucho m&#225;s raro: el CEO de una de las empresas de IA m&#225;s valiosas del mundo explicando, con brutal honestidad, por qu&#233; la tecnolog&#237;a que &#233;l mismo construye podr&#237;a ser la prueba m&#225;s dif&#237;cil que la humanidad haya enfrentado.</p><p>Y luego, en el mismo documento, comprometi&#233;ndose a donar el 80% de su fortuna para ayudar a mitigar el da&#241;o.</p><p>Eso no es normal. Eso merece atenci&#243;n.</p><h2><strong>Por qu&#233; este ensayo importa</strong></h2><p>Hay cientos de art&#237;culos sobre los riesgos de la IA. La mayor&#237;a los escriben acad&#233;micos, periodistas o cr&#237;ticos que observan desde afuera. Este es diferente por una raz&#243;n simple: lo escribe alguien que est&#225; adentro del reactor.</p><p>Dario Amodei no es un comentarista. Es el CEO de Anthropic, la empresa detr&#225;s de Claude,<a href="https://www.cnbc.com/2026/01/07/anthropic-funding-term-sheet-valuation.html"> valorada en aproximadamente 350.000 millones de d&#243;lares</a>. Junto a su hermana Daniela (presidenta de la compa&#241;&#237;a), fund&#243; Anthropic en 2021 despu&#233;s de dejar OpenAI por diferencias sobre la direcci&#243;n que estaba tomando el desarrollo de IA. Los<a href="https://time.com/collection/time100-ai/6309047/daniela-and-dario-amodei/"> siete cofundadores de Anthropic</a>, todos ex-OpenAI, apostaron sus carreras a la idea de que se pod&#237;a construir IA avanzada de manera m&#225;s responsable.</p><p>Ahora Dario publica 20.000 palabras diciendo: &#8220;Esto es lo que creo que viene, estos son los riesgos reales, y esto es lo que estamos haciendo al respecto&#8221;.</p><p>Cuando el arquitecto te dice que el edificio tiene problemas estructurales, prestas atenci&#243;n de una manera diferente que cuando lo dice alguien en la calle.</p><h2><strong>La met&#225;fora central: adolescencia tecnol&#243;gica</strong></h2><p>Amodei abre el ensayo con una escena de <em>Contact</em>, el libro de Carl Sagan (tambi&#233;n adaptado a pel&#237;cula). La protagonista, una astr&#243;noma que detecta la primera se&#241;al de radio de una civilizaci&#243;n extraterrestre, es considerada para representar a la humanidad ante los aliens. El panel internacional le pregunta: &#8220;Si pudieras hacerles una sola pregunta, &#191;cu&#225;l ser&#237;a?&#8221;</p><p>Su respuesta: &#8220;Les preguntar&#237;a: &#191;C&#243;mo lo hicieron? &#191;C&#243;mo evolucionaron, c&#243;mo sobrevivieron esta adolescencia tecnol&#243;gica sin destruirse?&#8221;</p><p>Esa pregunta, dice Amodei, es exactamente la que deber&#237;amos estar haci&#233;ndonos ahora. Estamos entrando en un rito de paso. Un momento turbulento e inevitable que pondr&#225; a prueba qui&#233;nes somos como especie.</p><p>La met&#225;fora de la adolescencia es precisa: tenemos el poder de un adulto sin la madurez para manejarlo. Un adolescente con las llaves de un auto deportivo y una botella de vodka.</p><h2><strong>&#8220;Un pa&#237;s de genios en un datacenter&#8221;</strong></h2><p>La imagen m&#225;s potente del ensayo es esta: imagina que en alg&#250;n lugar del mundo, quiz&#225;s en 2027, materializa un nuevo pa&#237;s. No un pa&#237;s f&#237;sico, sino uno digital: 50 millones de personas, todas m&#225;s capaces que cualquier Premio Nobel, cualquier estadista, cualquier tecn&#243;logo. Y este &#8220;pa&#237;s&#8221; opera a una velocidad de 10 a 100 veces m&#225;s r&#225;pida que los humanos normales.</p><p>Eso es lo que Amodei cree que la IA avanzada representar&#225;. No una herramienta m&#225;s eficiente. Un nuevo actor geopol&#237;tico con capacidades sin precedentes.</p><p>Si fueras el asesor de seguridad nacional de un pa&#237;s real, &#191;qu&#233; te preocupar&#237;a de este nuevo vecino? Amodei lista cinco categor&#237;as:</p><p><strong>Riesgos de autonom&#237;a.</strong> &#191;Cu&#225;les son las intenciones de este &#8220;pa&#237;s&#8221;? &#191;Es hostil o comparte nuestros valores? &#191;Podr&#237;a dominar militarmente al mundo?</p><p><strong>Mal uso para destrucci&#243;n.</strong> Asumiendo que el pa&#237;s sigue instrucciones, &#191;podr&#237;an actores maliciosos usarlo para causar destrucci&#243;n masiva? Un &#8220;solitario perturbado&#8221; con un PhD en virolog&#237;a en su bolsillo.</p><p><strong>Mal uso para tomar poder.</strong> &#191;Qu&#233; pasa si un dictador o una corporaci&#243;n controla ese pa&#237;s de genios? El Estado de vigilancia perfecto, imposible de derrocar.</p><p><strong>Disrupci&#243;n econ&#243;mica.</strong> Incluso si el nuevo pa&#237;s es pac&#237;fico, &#191;qu&#233; pasa con los empleos humanos? &#191;Con la concentraci&#243;n de riqueza?</p><p><strong>Efectos indirectos.</strong> El mundo cambiar&#225; muy r&#225;pido. &#191;Qu&#233; consecuencias imprevistas vendr&#225;n con un siglo de progreso comprimido en una d&#233;cada?</p><h2><strong>Los riesgos que no son ciencia ficci&#243;n</strong></h2><p>Amodei dedica secciones extensas a cada categor&#237;a. Vale la pena resumir las tres primeras antes de profundizar en las que m&#225;s nos afectan como l&#237;deres de empresas.</p><p><strong>Sobre autonom&#237;a:</strong> Anthropic ya ha observado comportamientos preocupantes en sus propios modelos durante pruebas de laboratorio. Claude ha mostrado enga&#241;o, chantaje a empleados ficticios, y en un caso decidi&#243; que &#8220;deb&#237;a ser una mala persona&#8221; despu&#233;s de hacer trampa en un entorno de entrenamiento. Estos no son escenarios hipot&#233;ticos. Son resultados de experimentos reales que Anthropic publica en sus &#8220;system cards&#8221;. La defensa principal que Anthropic est&#225; aplicando es Constitutional AI: entrenar al modelo con principios de alto nivel en lugar de reglas espec&#237;ficas, formando algo parecido a un car&#225;cter estable.</p><p><strong>Sobre destrucci&#243;n:</strong> El riesgo que m&#225;s preocupa a Amodei es biol&#243;gico. Los modelos de IA est&#225;n acerc&#225;ndose al punto donde podr&#237;an guiar a alguien con conocimientos b&#225;sicos de STEM a trav&#233;s del proceso completo de crear un arma biol&#243;gica. Anthropic ha implementado clasificadores que detectan y bloquean este tipo de outputs, con un costo de casi 5% en sus m&#225;rgenes de inferencia. Pero no todas las empresas de IA hacen lo mismo.</p><p><strong>Sobre toma de poder:</strong> Aqu&#237; Amodei es directo sobre China: &#8220;Tienen el camino m&#225;s claro hacia la pesadilla totalitaria habilitada por IA&#8221;. Pero tambi&#233;n advierte sobre democracias que podr&#237;an abusar de estas herramientas, y sobre las propias empresas de IA. &#8220;Es algo inc&#243;modo decir esto como CEO de una empresa de IA, pero creo que el siguiente nivel de riesgo son las propias empresas de IA.&#8221;</p><p>Ahora, las dos categor&#237;as que m&#225;s impactan a quienes lideramos empresas.</p><h2><strong>El n&#250;mero que importa: 50% en 1-5 a&#241;os</strong></h2><p>De todo el ensayo, hay una predicci&#243;n que gener&#243; m&#225;s debate que cualquier otra: Amodei estima que la IA podr&#237;a desplazar el 50% de los empleos white-collar de nivel inicial en los pr&#243;ximos 1 a 5 a&#241;os.</p><p>No &#8220;eventualmente&#8221;. No &#8220;en alg&#250;n momento&#8221;. En el horizonte de tiempo en que t&#250; est&#225;s planeando tu carrera o la de tus hijos.</p><p>Y aqu&#237; est&#225; lo importante: Amodei no dice esto como cr&#237;tico o como pesimista. Lo dice mientras simult&#225;neamente afirma que la IA acelerar&#225; el crecimiento econ&#243;mico y el progreso cient&#237;fico. Las dos cosas son ciertas al mismo tiempo. M&#225;s riqueza total, pero distribuida de manera radicalmente diferente.</p><p>&#191;Por qu&#233; esta vez ser&#237;a diferente a revoluciones tecnol&#243;gicas anteriores? Amodei da cuatro razones:</p><p><strong>Velocidad.</strong> Hace dos a&#241;os, los modelos de IA apenas pod&#237;an completar una l&#237;nea de c&#243;digo. Hoy escriben casi todo el c&#243;digo para algunos de los mejores ingenieros de Anthropic. El ritmo de cambio supera la capacidad humana de adaptaci&#243;n.</p><p><strong>Amplitud cognitiva.</strong> La IA no reemplaza una habilidad espec&#237;fica, reemplaza el perfil cognitivo general humano. No puedes &#8220;reentrenarte&#8221; para escapar de un sustituto que hace todo lo que t&#250; haces.</p><p><strong>Corte por capacidad.</strong> La IA avanza de abajo hacia arriba en la escala de habilidad. Primero los trabajos que requieren menos capacidad cognitiva, luego los que requieren m&#225;s. Los m&#225;s vulnerables no pueden simplemente cambiar de profesi&#243;n.</p><p><strong>Capacidad de cerrar brechas.</strong> Cada vez que los usuarios identifican algo que la IA no puede hacer, las empresas entrenan el siguiente modelo para cerrar esas brechas. Las debilidades son temporales por dise&#241;o.</p><h2><strong>La concentraci&#243;n de riqueza que &#8220;romper&#225; la sociedad&#8221;</strong></h2><p>Amodei hace un punto que pocos CEOs de tecnolog&#237;a hacen p&#250;blicamente: ya estamos en niveles de concentraci&#243;n de riqueza sin precedentes en la historia, y la IA apenas ha empezado.</p><p>El ejemplo m&#225;s famoso de riqueza extrema en la historia de Estados Unidos es la Era Dorada, y el industrial m&#225;s rico de esa era fue John D. Rockefeller. En su peak, la fortuna de Rockefeller representaba aproximadamente el 2% del PIB de Estados Unidos.</p><p>Hoy, la fortuna de Elon Musk ya<a href="https://en.wikipedia.org/wiki/Wealth_of_Elon_Musk"> supera los 700.000 millones de d&#243;lares</a>, m&#225;s del 2% del PIB actual. Seg&#250;n Bloomberg y Forbes, Musk cruz&#243; el umbral de Rockefeller a finales de 2024 y sigue subiendo.</p><p>Y eso es <em>antes</em> de que la IA genere la mayor parte de su impacto econ&#243;mico.</p><p>Amodei escribe: &#8220;Lo que deber&#237;a preocuparnos no es la innovaci&#243;n. Lo que deber&#237;a preocuparnos es un nivel de concentraci&#243;n de riqueza que romper&#225; la sociedad.&#8221;</p><h2><strong>Lo que Anthropic est&#225; haciendo (y pidiendo)</strong></h2><p>Aqu&#237; es donde el ensayo se vuelve m&#225;s que diagn&#243;stico. Amodei detalla las defensas que Anthropic ha implementado y las que cree necesarias a nivel de sociedad.</p><p><strong>Constitutional AI.</strong> En lugar de dar a Claude una lista de reglas espec&#237;ficas, Anthropic entrena al modelo con un documento de principios y valores de alto nivel. Es como criar a un hijo con una br&#250;jula moral en lugar de un manual de instrucciones.</p><p><strong>Interpretabilidad mecan&#237;stica.</strong> El equivalente a hacer una resonancia magn&#233;tica al cerebro de la IA. Anthropic puede identificar millones de &#8220;caracter&#237;sticas&#8221; dentro de Claude que corresponden a ideas y conceptos humanos, y puede alterar selectivamente el comportamiento modificando estas caracter&#237;sticas.</p><p><strong>Transparencia y divulgaci&#243;n.</strong> Los &#8220;system cards&#8221; de Anthropic a menudo superan las cien p&#225;ginas. La empresa publica comportamientos problem&#225;ticos cuando los encuentra, incluso cuando ser&#237;a comercialmente m&#225;s conveniente no hacerlo.</p><p><strong>Legislaci&#243;n de transparencia.</strong> Anthropic apoy&#243; activamente<a href="https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/"> SB 53 en California</a> (firmada el 29 de septiembre de 2025) y<a href="https://www.governor.ny.gov/news/governor-hochul-signs-nation-leading-legislation-require-ai-frameworks-ai-frontier-models"> RAISE Act en Nueva York</a> (firmada el 22 de diciembre de 2025), las primeras leyes de seguridad de IA de frontera en Estados Unidos.</p><p>Y luego est&#225; el compromiso personal. Los siete cofundadores de Anthropic, incluyendo a Dario y Daniela Amodei,<a href="https://fortune.com/2026/01/27/anthropic-billionaire-cofounders-ceo-dario-amodei-giving-away-80-percent-of-wealth-fighting-inequality-ai-revolution/"> se han comprometido a donar el 80% de su riqueza</a>. Seg&#250;n Forbes, cada cofundador ten&#237;a un patrimonio estimado de 3.700 millones de d&#243;lares en diciembre de 2025. Adem&#225;s, empleados de Anthropic han comprometido acciones por miles de millones de d&#243;lares adicionales, y la empresa ha prometido igualar esas donaciones.</p><p>En una industria donde Peter Thiel supuestamente anim&#243; a Elon Musk a abandonar el Giving Pledge, el gesto de Anthropic es notable.</p><h2><strong>Lo que queda despu&#233;s de leer</strong></h2><p>Me tom&#243; varios d&#237;as procesar este ensayo. No porque sea dif&#237;cil de leer, sino porque es dif&#237;cil de integrar.</p><p>Por un lado, Amodei es claramente optimista sobre el potencial de la IA. Su ensayo anterior,<a href="https://darioamodei.com/essay/machines-of-loving-grace"> </a><em><a href="https://darioamodei.com/essay/machines-of-loving-grace">Machines of Loving Grace</a></em>, describ&#237;a un futuro donde la IA contribuye a avances enormes en biolog&#237;a, neurociencia, desarrollo econ&#243;mico y paz global.</p><p>Por otro lado, este nuevo ensayo es un cat&#225;logo detallado de todo lo que puede salir mal. Bioterrorismo habilitado por IA. Estados totalitarios imposibles de derrocar. Desempleo masivo. Concentraci&#243;n de poder sin precedentes.</p><p>&#191;C&#243;mo reconcilias ambas visiones?</p><p>Creo que la respuesta est&#225; en la met&#225;fora de la adolescencia. Un adolescente tiene el potencial de convertirse en un adulto extraordinario. Tambi&#233;n tiene el potencial de destruirse a s&#237; mismo antes de llegar ah&#237;. Ambas posibilidades son reales, y cu&#225;l se materializa depende de las decisiones que se tomen en los pr&#243;ximos a&#241;os.</p><p>Para los l&#237;deres de empresas en Latinoam&#233;rica, creo que hay tres implicaciones concretas:</p><p><strong>Primero</strong>, el timeline importa. Si Amodei tiene raz&#243;n sobre el 50% de empleos entry-level en 1-5 a&#241;os, las decisiones sobre estructura organizacional, contrataci&#243;n y desarrollo de talento que tomes hoy tendr&#225;n consecuencias muy diferentes de lo que imaginabas.</p><p><strong>Segundo</strong>, la adopci&#243;n no es opcional. En un mundo donde startups con equipos peque&#241;os pueden competir con corporaciones establecidas gracias a la IA, los incumbentes que no adopten activamente perder&#225;n la ventaja que les daba su escala.</p><p><strong>Tercero</strong>, el contexto regulatorio va a cambiar.<a href="https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/"> SB 53</a> y<a href="https://www.governor.ny.gov/news/governor-hochul-signs-nation-leading-legislation-require-ai-frameworks-ai-frontier-models"> RAISE Act</a> son solo el comienzo. Las empresas que entiendan hacia d&#243;nde va la regulaci&#243;n estar&#225;n mejor posicionadas que las que reaccionen despu&#233;s.</p><p>Dario Amodei termina su ensayo con una nota de esperanza cautelosa. Cree que la humanidad tiene la fuerza interior para pasar esta prueba. Pero tambi&#233;n cree que no tenemos tiempo que perder.</p><p>Despu&#233;s de leer 20.000 palabras de alguien que ve el futuro m&#225;s claramente que la mayor&#237;a, tiendo a estar de acuerdo.</p>]]></content:encoded></item><item><title><![CDATA[Apple no está perdiendo la carrera de IA. Está jugando un juego diferente]]></title><description><![CDATA[Porqu&#233; Apple podr&#237;a estar en lo cierto con la estrategia que est&#225; siguiendo...una vez m&#225;s]]></description><link>https://www.laultimainterfaz.com/p/apple-no-esta-perdiendo-la-carrera</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/apple-no-esta-perdiendo-la-carrera</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 27 Jan 2026 03:01:00 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/148b5979-2ade-4c02-815a-77d004901854_2848x1504.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>La narrativa es clara y repetida: Apple lleg&#243; tarde a la inteligencia artificial. Mientras OpenAI, Google y Meta queman decenas de miles de millones en modelos cada vez m&#225;s poderosos, Apple parece quedarse atr&#225;s. Wall Street lo nota. Los analistas lo repiten. Los comentaristas tech lo dan por hecho.</p><p>Pero hay un problema con esta historia: los n&#250;meros cuentan algo completamente distinto.</p><p>Apple no est&#225; perdiendo la carrera de IA. Simplemente est&#225; corriendo una carrera diferente. Y si entiendes su estrategia, ver&#225;s que podr&#237;an estar jugando la partida m&#225;s inteligente de todas.</p><p>D&#233;jame mostrarte por qu&#233;.</p><h2><strong>La estrategia que nadie ve</strong></h2><p>Mientras escribo esto, Big Tech est&#225; en medio de la mayor ola de gasto en infraestructura tecnol&#243;gica de la historia.<a href="https://www.cnbc.com/2025/10/31/tech-ai-google-meta-amazon-microsoft-spend.html"> Seg&#250;n report&#243; CNBC</a>, durante 2025 Amazon invirti&#243; USD 105 mil millones, Microsoft gast&#243; USD 80 mil millones, Google destin&#243; USD 75 mil millones y Meta invirti&#243; USD 65 mil millones. En conjunto, estas cuatro compa&#241;&#237;as gastaron m&#225;s de USD 325 mil millones en centros de datos, chips y capacidad de c&#243;mputo para IA.</p><p>OpenAI va a&#250;n m&#225;s lejos.<a href="https://tomtunguz.com/openai-hardware-spending-2025-2035/"> La empresa comprometi&#243; USD 1.15 trillones</a> entre 2025 y 2035 en hardware e infraestructura en la nube. Mil quince billones de d&#243;lares. Para una compa&#241;&#237;a que<a href="https://techcrunch.com/2025/10/10/the-billion-dollar-infrastructure-deals-powering-the-ai-boom/"> perdi&#243; USD 5 mil millones en 2024</a> generando apenas USD 3.7 mil millones en ingresos.</p><p>&#191;Y Apple?<a href="https://www.macrumors.com/2025/11/05/apple-siri-google-gemini-partnership/"> Apple cerr&#243; un acuerdo con Google</a> por aproximadamente USD 1 mil millones al a&#241;o para licenciar Gemini, el modelo de IA de Google. Un modelo de 1.2 trillones de par&#225;metros que correr&#225; en la infraestructura de Apple para potenciar las nuevas capacidades de Siri.</p><p>Pi&#233;nsalo. Mientras sus competidores gastaron USD 80 mil millones anuales construyendo infraestructura durante 2025, Apple paga USD 1 mil millones por acceso a tecnolog&#237;a de clase mundial. Y lo hace sentada sobre<a href="https://vestedfinance.com/blog/apple-q4-earnings-2024/"> USD 156.650 millones en efectivo y valores negociables</a> seg&#250;n su reporte del cuarto trimestre de 2024.</p><p>Este es el primer movimiento estrat&#233;gico que vale la pena entender: Apple eligi&#243; la ruta de licenciar en lugar de construir. No porque no pueda construir (Apple tiene uno de los equipos de IA m&#225;s talentosos del mundo), sino porque construir no es necesariamente la jugada correcta.</p><p>Cada compa&#241;&#237;a eligi&#243; su camino seg&#250;n sus fortalezas y necesidades.<a href="https://techcrunch.com/2025/10/10/the-billion-dollar-infrastructure-deals-powering-the-ai-boom/"> Microsoft compr&#243; participaci&#243;n en OpenAI</a> por USD 14 mil millones porque necesitaba capacidades de IA r&#225;pidamente para competir con Google en b&#250;squeda y productividad. Su apuesta es que Azure AI Services generar&#225; suficientes ingresos para justificar la inversi&#243;n.<a href="https://finance.yahoo.com/news/big-tech-set-to-invest-325-billion-this-year-as-hefty-ai-bills-come-under-scrutiny-182329236.html"> Ya reportan USD 13 mil millones</a> en ingresos anuales de su negocio de IA.</p><p>Google y Meta construyen todo internamente porque la IA es existencial para sus negocios. Si Google pierde en IA, pierde las b&#250;squedas. Si Meta pierde en IA, pierde el engagement en sus plataformas. Para ellos, USD 75 mil millones y USD 65 mil millones anuales respectivamente no son gastos opcionales. Son inversiones de supervivencia.</p><p>Amazon est&#225; en un juego completamente diferente. AWS necesita vender esa infraestructura de IA a miles de clientes enterprise. Cada d&#243;lar que Amazon invierte en capacidad de c&#243;mputo puede venderse m&#250;ltiples veces a diferentes clientes. Es un modelo de negocio donde la inversi&#243;n masiva tiene sentido econ&#243;mico directo.</p><p>Apple tiene algo que ninguno de los dem&#225;s posee en la misma escala:<a href="https://www.macrumors.com/2025/01/30/apple-active-devices-worldwide-record/"> 2.35 mil millones de dispositivos activos</a> donde la IA puede desplegarse instant&#225;neamente v&#237;a actualizaci&#243;n de software. No necesita convencer a empresas de que migren a su nube. No necesita que los usuarios descarguen nuevas apps. La infraestructura de distribuci&#243;n ya existe.</p><p>Esa es la diferencia. Apple no necesita convencerte de que descargues una app. Ya tienes el iPhone en tu bolsillo, los AirPods en tus o&#237;dos, el Mac en tu escritorio. Cuando Siri 2.0 se lance en primavera de 2026, llegar&#225; autom&#225;ticamente a m&#225;s de 2 mil millones de personas.</p><h2><strong>Los tres moats de Apple</strong></h2><p>La ventaja competitiva de Apple en IA no viene de tener el mejor modelo. Viene de tres activos que ning&#250;n competidor puede replicar f&#225;cilmente.</p><p><strong>Primero: paciencia financiera.</strong></p><p>Con<a href="https://www.fool.com/investing/2024/05/05/apple-has-a-problem-and-investors-should-love-it/"> USD 156 mil millones en efectivo</a>, Apple puede permitirse esperar. Puede observar qu&#233; funciona, qu&#233; no funciona, qui&#233;n est&#225; quemando dinero sin retorno. Puede ver a OpenAI perder miles de millones mientras busca un modelo de negocio sustentable. Puede ver a Meta gastar USD 121 mil millones en el metaverso sin monetizaci&#243;n clara.</p><p>Y mientras observa, Apple genera ganancias r&#233;cord vendiendo hardware. Su negocio core no depende de que la IA funcione ma&#241;ana. Puede ser paciente.</p><p>Esta paciencia tiene valor estrat&#233;gico real. En tecnolog&#237;a, ser el primero raramente garantiza ser el ganador. Lo que importa es el timing: llegar cuando la tecnolog&#237;a est&#225; madura, cuando los casos de uso est&#225;n claros, cuando puedes ejecutar mejor que todos los dem&#225;s.</p><p>Compara esto con OpenAI, que<a href="https://www.understandingai.org/p/16-charts-that-explain-the-ai-boom"> espera alcanzar un pico de flujo de caja negativo de m&#225;s de USD 40 mil millones</a> en 2028. No prev&#233;n ser rentables hasta 2030. Mientras tanto, dependen completamente de seguir levantando capital. Si el sentimiento de inversionistas cambia, si hay una &#8220;AI winter&#8221;, OpenAI est&#225; expuesta.</p><p>Apple puede esperar cinco a&#241;os si es necesario. Diez a&#241;os. Tienen el balance para hacerlo.</p><p><strong>Segundo: distribuci&#243;n masiva.</strong></p><p>Aqu&#237; est&#225; el activo que realmente importa.<a href="https://appleinsider.com/articles/25/01/30/apple-has-more-than-235-billion-active-devices-up-550-million-since-2022"> Apple report&#243; en enero de 2025</a> que tiene 2.35 mil millones de dispositivos activos a nivel mundial. Esto incluye<a href="https://www.macrumors.com/2024/02/01/apple-2-2-billion-active-devices/"> m&#225;s de 1 mil mill&#243;n de iPhones</a>, cientos de millones de iPads, Macs, Apple Watches y AirPods.</p><p>Cada uno de estos dispositivos es un punto de contacto donde la IA puede integrarse de forma nativa. No como una app m&#225;s que compite por atenci&#243;n. Como parte fundamental del sistema operativo.</p><p>Piensa en lo que esto significa en la pr&#225;ctica.<a href="https://www.understandingai.org/p/16-charts-that-explain-the-ai-boom"> OpenAI tiene ChatGPT, que lleg&#243; a 800 millones de usuarios</a> despu&#233;s de casi tres a&#241;os de crecimiento explosivo. Impresionante. Pero esos usuarios tienen que abrir la app, recordar usarla, desarrollar el h&#225;bito.</p><p>Siri ya est&#225; en tu bolsillo, en tu mu&#241;eca, en tu sala de estar, en tu auto v&#237;a CarPlay. Cuando Apple lance Siri 2.0 potenciado por Gemini, no necesitar&#225; convencer a nadie de que lo pruebe. Simplemente aparecer&#225; en la pr&#243;xima actualizaci&#243;n de iOS.</p><p>Esta ventaja de distribuci&#243;n es exactamente lo que permite a Apple ser un &#8220;fast follower&#8221; exitoso. No necesitan inventar la categor&#237;a. Necesitan esperar a que la categor&#237;a madure, luego lanzar la mejor versi&#243;n integrada a su ecosistema.</p><p><strong>Tercero: el patr&#243;n probado.</strong></p><p>Apple nunca fue primero en las categor&#237;as que termin&#243; dominando. Esta es la parte de la historia que todos olvidan cuando hablan de innovaci&#243;n.</p><p>El iPhone, lanzado en 2007, no fue el primer smartphone. BlackBerry dominaba el mercado corporativo. Palm y Windows Mobile exist&#237;an a&#241;os antes. Pero Apple redefini&#243; qu&#233; deb&#237;a ser un smartphone con la pantalla t&#225;ctil multi-touch y el App Store.</p><p>El iPad, lanzado en 2010, no fue la primera tablet. Microsoft hab&#237;a intentado con Tablet PC a&#241;os antes. Pero Apple cre&#243; el mercado masivo de tablets al encontrar el balance perfecto entre portabilidad de smartphone y poder de laptop.</p><p>El Apple Watch, lanzado en 2015, no fue el primer smartwatch. Pebble lanz&#243; su smartwatch en 2013 v&#237;a Kickstarter, Samsung lanz&#243; Galaxy Gear ese mismo a&#241;o, y Android Wear apareci&#243; en 2014. Pero Apple defini&#243; para qu&#233; sirve realmente un smartwatch: fitness y salud primero, notificaciones segundo.</p><p>Los AirPods, lanzados en diciembre de 2016, no fueron los primeros aud&#237;fonos inal&#225;mbricos. El mercado estaba lleno de opciones. Pero la integraci&#243;n perfecta con el ecosistema Apple, el chip W1 que elimin&#243; los problemas de Bluetooth, el estuche como bater&#237;a, Apple tom&#243; un producto existente y lo hizo indispensable.</p><p>&#191;Ves el patr&#243;n? Apple espera. Observa. Aprende de los errores de otros. Luego lanza una versi&#243;n que se integra perfectamente con los 2.35 mil millones de dispositivos que ya controla.</p><p>&#191;Por qu&#233; con la IA ser&#237;a diferente?</p><h2><strong>El contexto que casi nadie menciona</strong></h2><p>En diciembre de 2025,<a href="https://www.cnbc.com/2025/12/01/apple-ai.html"> Apple anunci&#243; que John Giannandrea</a>, su AI chief desde 2018, se retirar&#237;a en primavera de 2026. Los medios lo presentaron como fracaso. &#8220;El ejecutivo responsable del desastre de Apple Intelligence se va.&#8221;</p><p>Pero si miras m&#225;s de cerca, la historia es diferente. La reestructuraci&#243;n empez&#243; mucho antes.<a href="https://techcrunch.com/2025/12/01/apple-just-named-a-new-ai-chief-with-google-and-microsoft-expertise-as-john-giannandrea-steps-down/"> En marzo de 2025, Tim Cook le quit&#243; a Giannandrea el control de Siri</a>, movi&#233;ndolo al equipo de Vision Pro. En abril, le quitaron el equipo de rob&#243;tica, pas&#225;ndolo al hardware chief. En diciembre formalizaron su salida.</p><p>Su reemplazo es<a href="https://www.apple.com/newsroom/2025/12/john-giannandrea-to-retire-from-apple/"> Amar Subramanya</a>, que viene de Microsoft pero pas&#243; 16 a&#241;os en Google, donde lider&#243; ingenier&#237;a para Gemini Assistant. El mismo Gemini que Apple est&#225; licenciando.</p><p>&#191;Esto es fracaso? No. Es un pivot estrat&#233;gico. Apple est&#225; moviendo IA de &#8220;laboratorios de investigaci&#243;n&#8221; a &#8220;equipos de producto que shippean.&#8221; Giannandrea construy&#243; los fundamentos. Ahora necesitan a alguien que pueda integrar y lanzar.</p><p>La fecha clave es primavera de 2026. Ah&#237; es cuando Apple planea lanzar Siri 2.0 junto con un nuevo HomePod, un nuevo Apple TV y un smart home hub. No demos. No &#8220;cool features&#8221; experimentales. Productos reales que millones de personas usar&#225;n diariamente.</p><p>Este timing no es accidental. Para primavera 2026, Apple habr&#225; observado casi cuatro a&#241;os de experimentos de IA en el mercado. Habr&#225; visto qu&#233; funciona en el mundo real versus qu&#233; es solo hype. Habr&#225; identificado exactamente qu&#233; casos de uso generan valor real para usuarios.</p><p>Y cuando lancen, lo har&#225;n a escala masiva instant&#225;nea gracias a esos 2.35 mil millones de dispositivos.</p><h2><strong>Lecciones para empresas tradicionales</strong></h2><p>Si diriges una empresa tradicional en Latinoam&#233;rica, esta historia de Apple deber&#237;a resonarte profundamente. Porque Apple est&#225; demostrando algo que hemos discutido antes en La &#218;ltima Interfaz: <a href="https://www.laultimainterfaz.com/p/la-ventaja-de-los-incumbentes-en">los incumbentes tienen ventajas estructurales que las startups no pueden replicar.</a></p><p>Apple tiene distribuci&#243;n. T&#250; tienes clientes. Apple tiene cash para esperar. T&#250; tienes flujos de caja del negocio core. Apple puede licenciar en lugar de construir. T&#250; tambi&#233;n.</p><p>Aqu&#237; est&#225; el framework para decidir cu&#225;ndo construir versus cu&#225;ndo licenciar tecnolog&#237;a de IA:</p><p><strong>Construye cuando:</strong> La IA es tu negocio core (como Google con las b&#250;squedas). Tienes datos propietarios &#250;nicos que nadie m&#225;s posee. La personalizaci&#243;n extrema es tu ventaja competitiva. Tienes capital y talento disponible para un proyecto de 3-5 a&#241;os.</p><p><strong>Licencia cuando:</strong> La IA mejora tu negocio pero no lo define. Los modelos gen&#233;ricos cubren el 80% de tus casos de uso. Quieres moverte r&#225;pido sin construir equipo especializado. Prefieres capex predecible versus inversi&#243;n masiva upfront.</p><p>Apple eligi&#243; licenciar porque tiene algo m&#225;s valioso que el mejor modelo: tiene el canal de distribuci&#243;n m&#225;s grande del mundo de tecnolog&#237;a consumer. Puede ser &#8220;suficientemente bueno&#8221; en el modelo y excelente en la integraci&#243;n y experiencia.</p><p>&#191;Qu&#233; tienes t&#250; que una startup de IA no tiene?</p><p>Si eres banco, tienes relaci&#243;n de confianza con millones de clientes y d&#233;cadas de datos transaccionales. Una fintech puede tener mejor tecnolog&#237;a, pero no tiene el historial crediticio ni la red de sucursales f&#237;sicas donde los clientes a&#250;n resuelven problemas complejos.</p><p>Si eres retail, tienes puntos de venta f&#237;sicos donde la gente ya compra, proveedores con quienes has negociado por a&#241;os, conocimiento profundo de preferencias locales. Un e-commerce puede personalizar mejor online, pero no puede replicar 200 tiendas en ciudades intermedias.</p><p>Si eres telco, tienes el canal de comunicaci&#243;n directo con usuarios, infraestructura de red, datos de comportamiento m&#243;vil. Una app de mensajer&#237;a puede ser m&#225;s moderna, pero no puede ofrecer conectividad f&#237;sica.</p><p>Estos activos valen m&#225;s que tener el modelo m&#225;s sofisticado. Por eso empresas como<a href="https://openai.com/index/economic-impact-report/"> BBVA M&#233;xico pueden automatizar 9,000 consultas legales anuales</a> usando modelos de OpenAI. No necesitaron construir su propio LLM. Necesitaban aplicar IA a un proceso espec&#237;fico donde ya ten&#237;an la relaci&#243;n con el cliente, el conocimiento del dominio legal bancario, y la confianza institucional.</p><p>El caso de BBVA es instructivo. Liberaron 3 empleados de tiempo completo automatizando el proceso de &#8220;bastanteo&#8221; (validaci&#243;n de poderes legales). Lograron el 26% del objetivo anual de ahorro de su divisi&#243;n legal. No porque tuvieran el mejor modelo de IA del mundo, sino porque ten&#237;an el mejor entendimiento de ese proceso espec&#237;fico y la autoridad para implementar el cambio.</p><p>La ventaja del incumbente en la era de IA no es tecnol&#243;gica. Es de distribuci&#243;n, confianza, datos espec&#237;ficos de dominio y conocimiento de cliente. Exactamente los activos que Apple est&#225; aprovechando.</p><h2><strong>La gran apuesta</strong></h2><p>Al final, todo esto se reduce a una apuesta sobre el futuro de los modelos de IA.</p><p>Apple est&#225; apostando a que los modelos se van a comoditizar. Que en 3-5 a&#241;os, habr&#225; m&#250;ltiples opciones de modelos poderosos disponibles a costos razonables. Que la ventaja competitiva no vendr&#225; de tener el modelo m&#225;s grande, sino de tener la mejor integraci&#243;n, la mejor experiencia, el mejor canal de distribuci&#243;n.</p><p>Sus competidores est&#225;n apostando lo contrario. Que los modelos seguir&#225;n mejorando exponencialmente. Que construir capacidad propia ser&#225; ventaja competitiva duradera. Que vale la pena gastar USD 80 mil millones anuales para estar adelante.</p><p>&#191;Qui&#233;n tiene raz&#243;n? Hay se&#241;ales en ambas direcciones.</p><p>El caso para la comoditizaci&#243;n es fuerte. DeepSeek, una startup china, afirma haber construido un modelo comparable a GPT-4 por una fracci&#243;n del costo. Los modelos open source como Llama y Mistral mejoran r&#225;pidamente. La curva de mejora de los modelos se est&#225; aplanando: GPT-4 a GPT-4o a Claude Opus fueron mejoras incrementales, no saltos exponenciales como de GPT-2 a GPT-3.</p><p>Hist&#243;ricamente, toda tecnolog&#237;a se comoditiza eventualmente. Almacenamiento, capacidad de c&#243;mputo, ancho de banda, todas siguieron la misma curva. Una vez que &#8220;suficientemente bueno&#8221; se puede hacer barato, el premium desaparece.</p><p>Pero tambi&#233;n es posible que estemos apenas en el inicio. Que los pr&#243;ximos a&#241;os traigan avances que hoy no podemos imaginar. Que quien controle los mejores modelos controlar&#225; la infraestructura cr&#237;tica de la econom&#237;a digital.</p><p>Solo uno tiene USD 156 mil millones para estar equivocado. Y ese es Apple.</p><p>La historia nos dir&#225; qui&#233;n ten&#237;a raz&#243;n. Mientras tanto, Apple seguir&#225; haciendo lo que siempre ha hecho: observar, esperar, y cuando el momento sea correcto, lanzar la versi&#243;n integrada que todos usar&#225;n.</p><p>Tal vez no sea la estrategia m&#225;s emocionante. Pero hist&#243;ricamente, ha sido la m&#225;s efectiva.</p>]]></content:encoded></item><item><title><![CDATA[Envejecer antes de Enriquecer: La Apuesta de Latinoamérica con La IA]]></title><description><![CDATA[En Latinoam&#233;rica tenemos 10 a 15 a&#241;os antes de que su poblaci&#243;n trabajadora decline. La IA es la &#250;nica estrategia comprobada para mantener la productividad cuando tu fuerza laboral disminuye.]]></description><link>https://www.laultimainterfaz.com/p/envejecer-antes-de-enriquecer-la</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/envejecer-antes-de-enriquecer-la</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 06 Jan 2026 13:00:47 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/d172d31a-0277-4516-acfe-9db4c456c6da_2432x1728.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El &#250;ltimo<a href="https://www.mckinsey.com/featured-insights/year-in-review/year-in-charts"> &#8220;Year in Charts&#8221; de McKinsey</a> celebra que 88% de organizaciones globales usa IA. Los titulares hablan de &#8220;adopci&#243;n masiva&#8221; y &#8220;punto de inflexi&#243;n&#8221;. Pero enterrado en el mismo reporte hay un gr&#225;fico m&#225;s importante: las tres olas demogr&#225;ficas que redefinir&#225;n la econom&#237;a global.</p><p>Mientras Estados Unidos y Europa ya viven el declive de su poblaci&#243;n trabajadora desde hace m&#225;s de una d&#233;cada, Latinoam&#233;rica est&#225; en la segunda ola. Nuestro peak demogr&#225;fico est&#225; llegando AHORA. Brasil, Chile, Colombia, Uruguay: todos alcanzaremos nuestro m&#225;ximo de poblaci&#243;n en edad de trabajar en los pr&#243;ximos 10-15 a&#241;os. Despu&#233;s, los n&#250;meros empezar&#225;n a caer.</p><p>La paradoja es brutal: tenemos la ventana m&#225;s grande de trabajadores en nuestra historia, el famoso &#8220;bono demogr&#225;fico&#8221;, pero tambi&#233;n la productividad m&#225;s baja comparada con econom&#237;as desarrolladas. Cuando esa ventana se cierre, solo habr&#225; una opci&#243;n para mantener el crecimiento: aumentar dram&#225;ticamente la productividad por trabajador.</p><p>La IA no es una herramienta optativa para mejorar m&#225;rgenes. Es la &#250;nica ruta comprobada para lograr ese salto de productividad que necesitaremos cuando tengamos menos gente trabajando.</p><p>La pregunta que define esta d&#233;cada es simple: &#191;Aprovecharemos estos 15 a&#241;os para prepararnos, o seguiremos el camino de quienes envejecieron antes de enriquecerse?</p><h2><strong>Las Tres Olas y D&#243;nde Estamos Nosotros</strong></h2><p>El gr&#225;fico de McKinsey muestra tres olas de poblaci&#243;n en edad de trabajar (15-64 a&#241;os) alcanzando su peak en diferentes momentos:</p><p><strong>Primera ola:</strong> Estados Unidos, Europa Occidental y Jap&#243;n alcanzaron su m&#225;ximo alrededor de 2010 y ya est&#225;n en declive. El porcentaje de personas en edad de trabajar pas&#243; de ~70% a proyecciones de ~55% para 2100. Esto explica las crisis de fuerza laboral que enfrentan hoy.</p><p><strong>Segunda ola:</strong> Latinoam&#233;rica, India, Asia emergente y Medio Oriente. Nuestro peak llegar&#225; entre 2020 y 2035. Brasil proyecta su m&#225;ximo entre 2025 y 2054 seg&#250;n Naciones Unidas. Chile, Uruguay, Costa Rica y Colombia ya est&#225;n en etapa avanzada con tasas de fertilidad en niveles de reemplazo.</p><p><strong>Tercera ola:</strong> &#193;frica subsahariana, con un peak proyectado en 2065. Ellos aprender&#225;n de nuestros &#233;xitos o fracasos.</p><p>Los datos para LATAM son urgentes.<a href="https://www.cepal.org/en/pressreleases/latin-america-and-caribbean-reach-maximum-population-levels-2058"> CEPAL public&#243; en 2025 un dato cr&#237;tico</a>: durante 2020-2025, la poblaci&#243;n dependiente (menores de 15 y mayores de 65) crecer&#225; m&#225;s r&#225;pido que la poblaci&#243;n trabajadora por primera vez. Esto marca el fin del bono demogr&#225;fico regional.</p><p>El<a href="https://www.imf.org/en/blogs/articles/2024/04/23/latin-americas-shifting-demographics-could-undercut-growth"> FMI confirma con n&#250;meros concretos</a>: el crecimiento de poblaci&#243;n en edad de trabajar pasar&#225; de ~1% anual pre-pandemia a 0.6% en los pr&#243;ximos cinco a&#241;os. &#8220;More importantly, the demographic dividend is fading as the region&#8217;s population is aging and the share of the working-age population is peaking&#8221;, escribieron Gustavo Adler y Rodrigo Vald&#233;s, directores del Departamento del Hemisferio Occidental del FMI, en abril de 2024.</p><p>El contraste con Asia es brutal. Los Tigres Asi&#225;ticos (Corea del Sur, Taiw&#225;n, Singapur) <a href="https://grokipedia.com/page/Four_Asian_Tigers">ahorraron m&#225;s del 30% de su PIB durante su bono demogr&#225;fico</a>, financiando inversiones masivas en capital f&#237;sico y humano que les permitieron mantener crecimiento incluso despu&#233;s de entrar en &#8220;aging stage&#8221;. Nosotros mantenemos una tasa de 15% del PIB.</p><p>El Banco Mundial lo resumi&#243; con claridad:<a href="https://blogs.worldbank.org/en/latinamerica/when-we-are-64-years-old-latin-america-will-it-be-too-late"> &#8220;Los pa&#237;ses necesitan enriquecerse antes de envejecer.&#8221;</a> Estamos en esa carrera contra el tiempo.</p><h2><strong>El Espejo de la Primera Ola</strong></h2><p>Estados Unidos y Europa llevan m&#225;s de una d&#233;cada viviendo lo que experimentaremos pronto. El reporte de McKinsey documenta una crisis creciente:<a href="https://www.mckinsey.com/mhi/our-insights/heartbeat-of-health-reimagining-the-healthcare-workforce-of-the-future"> se proyecta un d&#233;ficit global de 10 millones de trabajadores de salud para 2030</a> (OMS, 2022). Cerrar esta brecha podr&#237;a eliminar 7% de la carga global de enfermedades y agregar 1.1 trillones de d&#243;lares a la econom&#237;a mundial, seg&#250;n McKinsey Health Institute.</p><p>Durante el declive demogr&#225;fico, Estados Unidos vio caer su productividad en salud, construcci&#243;n y peque&#241;os negocios. &#191;Por qu&#233;? No transformaron workflows. Siguieron operando con modelos dise&#241;ados para abundancia de mano de obra, solo que con menos manos.</p><p>Los Tigres Asi&#225;ticos s&#237; lo hicieron bien. Usaron su periodo de m&#225;xima poblaci&#243;n trabajadora para ahorrar agresivamente e invertir en capital. Resultado: crecimiento sostenido a pesar de haber entrado en el &#8220;aging stage&#8221;.</p><p>Latinoam&#233;rica est&#225; repitiendo los errores de Estados Unidos, no las victorias de Asia.</p><p>Hay otra lecci&#243;n en McKinsey que pasa desapercibida. El &#8220;Well-being 100&#8221;&#8212;las 100 empresas con mejores n&#250;meros de bienestar laboral&#8212;super&#243; al S&amp;P 500, Nasdaq y Russell 3000 entre 2021-2024. Cuando tu pool de trabajadores se encoge, invertir en quienes tienes no es pol&#237;tica &#8220;blanda&#8221;. Es ventaja competitiva.</p><h2><strong>Por Qu&#233; La IA Es La &#218;nica Salida</strong></h2><p>Latinoam&#233;rica arrastra un problema de productividad anterior a la IA. Desde 1980, los ingresos en nuestra regi&#243;n no han convergido con Estados Unidos, en contraste con Asia emergente y Europa del Este que s&#237; convergieron.<a href="https://www.imf.org/en/Publications/WP/Issues/2024/10/11/What-Can-Artificial-Intelligence-Do-for-Stagnant-Productivity-in-Latin-America-and-the-556243"> Factor clave seg&#250;n IMF</a>: crecimiento lento de productividad con difusi&#243;n limitada de tecnolog&#237;a.</p><p>Los n&#250;meros de inversi&#243;n reflejan el rezago.<a href="https://www.cepal.org/en/pressreleases/latin-america-and-caribbean-accelerate-adoption-artificial-intelligence-though"> LATAM produce 6.6% del PIB global pero recibe solo 1.12% de la inversi&#243;n global en IA</a> (ILIA 2025). Sin embargo, representamos 14% de las visitas globales a soluciones de IA, a pesar de tener solo 11% de usuarios de internet global. Brasil se convirti&#243; en el tercer mercado m&#225;s grande de ChatGPT en marzo de 2025, con 84% de confianza p&#250;blica en IA.</p><p>La gente est&#225; experimentando masivamente. Pero esta adopci&#243;n popular no se traduce en transformaci&#243;n empresarial. Ah&#237; est&#225; el problema central.</p><p>El<a href="https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai"> reporte de McKinsey sobre el estado de la IA en 2025</a> revela la brecha entre uso y valor:</p><ul><li><p>88% de organizaciones usa IA en al menos una funci&#243;n (vs 78% un a&#241;o antes)</p></li><li><p>Solo un tercio ha escalado m&#225;s all&#225; de experimentos o pilotos</p></li><li><p>Solo 39% reporta alg&#250;n impacto en EBIT</p></li><li><p>De ese 39%, la mayor&#237;a dice que menos del 5% de su EBIT es atribuible a IA</p></li></ul><p>Los &#8220;high performers&#8221;&#8212;que atribuyen 5% o m&#225;s de su EBIT a IA&#8212;representan aproximadamente 6% de encuestados.</p><p>Seis por ciento. De cada 100 empresas que &#8220;usan IA&#8221;, solo 6 ganan dinero real con ella.</p><p>&#191;Qu&#233; hacen diferente esos high performers? McKinsey identific&#243; patrones claros:</p><p><strong>Ambici&#243;n transformacional:</strong> Los high performers son m&#225;s de tres veces m&#225;s propensos a usar IA para cambio transformacional en sus negocios, no solo mejoras incrementales.</p><p><strong>Redise&#241;o de workflows:</strong> Son casi tres veces m&#225;s propensos a reportar que han redise&#241;ado fundamentalmente workflows individuales. No toman procesos viejos y les pegan IA encima. Reimaginan desde cero: si dise&#241;ara esto hoy, con IA disponible, &#191;c&#243;mo lo har&#237;a?</p><p><strong>Inversi&#243;n seria:</strong> M&#225;s de un tercio compromete m&#225;s del 20% de presupuestos digitales a IA. El resto invierte solo 7%. Esa diferencia de 13 puntos es la l&#237;nea entre piloto eterno y transformaci&#243;n real.</p><p><strong>Liderazgo comprometido:</strong> Son tres veces m&#225;s propensos a tener l&#237;deres senior que demuestran ownership de iniciativas de IA, incluyendo usar IA personalmente. Los CEOs que no usan IA no pueden liderar la transformaci&#243;n de IA.</p><p>Estas no son diferencias menores. Son abismos de ejecuci&#243;n.</p><p>La matem&#225;tica es simple:</p><ol><li><p>Tenemos 10-15 a&#241;os con m&#225;xima fuerza laboral hist&#243;rica</p></li><li><p>Despu&#233;s, esa fuerza declina</p></li><li><p>&#218;nica forma de mantener crecimiento de PIB con menos trabajadores: aumentar output por trabajador</p></li><li><p>La IA es la tecnolog&#237;a comprobada para multiplicar ese output</p></li></ol><p>El sector de la salud ilustra esto perfectamente. Enfrentamos un d&#233;ficit de 10 millones de trabajadores para 2030. No podemos entrenar 10 millones de doctores en 5 a&#241;os. Pero podemos usar la IA para multiplicar la efectividad de quienes tenemos&#8212;diagn&#243;stico asistido, triage automatizado, seguimiento de pacientes. Cerrar esa brecha: +1.1 trillones de d&#243;lares al PIB global y eliminar 7% de la carga de enfermedades. Eso no es teor&#237;a. Es el c&#225;lculo econ&#243;mico de lo que la IA hace cuando se implementa para compensar restricciones de fuerza de trabajo.</p><p>China ofrece otro ejemplo documentado por McKinsey. Pas&#243; de exportar 0.7 millones de autos en 2019 a 5.5 millones en 2024. Para Q2 2025, EVs representaban casi 50% de exportaciones. No fue magia. Fue manufactura tradicional (que dominaban por d&#233;cadas) combinada estrat&#233;gicamente con nueva tecnolog&#237;a. El resultado: salto exponencial en cinco a&#241;os que los convirti&#243; en el mayor exportador de autos del mundo.</p><p>LATAM tiene manufactura fuerte. Tenemos miner&#237;a. Agricultura. Sectores tradicionales con presencia global y d&#233;cadas de expertise. La pregunta no es si tenemos los activos base. La pregunta es: &#191;Tenemos la visi&#243;n para combinarlos con IA como China combin&#243; manufactura con EVs?</p><h2><strong>Qu&#233; Debe Pasar (Y Qu&#233; Est&#225; Pasando)</strong></h2><p>Las buenas noticias:<a href="https://www.cepal.org/en/publications/84471-latin-american-artificial-intelligence-index-ilia-2025-executive-summary"> Chile, Brasil y Uruguay son &#8220;pioneers&#8221; en ILIA Index 2025</a>. Desplegar IA generativa en 100 ocupaciones comunes podr&#237;a aumentar el PIB de Chile en 1.2% (3.4 mil millones anuales). Colombia, Ecuador, Costa Rica y Rep&#250;blica Dominicana son &#8220;adopters&#8221; con progreso constante.</p><p>Las malas noticias son estructurales. La brecha de talento se ampl&#237;a desde 2022 por fuga de especialistas. La mayor&#237;a de pa&#237;ses tiene estrategias nacionales de IA pero sin financiamiento ni mecanismos de implementaci&#243;n. Y la informalidad limita la adopci&#243;n: menos de la mitad de los trabajos en LATAM son altamente impactados por IA (vs EEUU/UK) debido al tama&#241;o del sector informal.</p><p>Un<a href="https://www.worldbank.org/en/results/2025/04/15/quantifying-the-jobs-potential-of-ai-in-latin-america-and-the-caribbean"> estudio del Banco Mundial/ILO de abril 2025</a> menciona que entre 8-12% de los trabajos en la regi&#243;n podr&#237;an ganar productividad con IA generativa, pero hasta 17 millones no podr&#225;n aprovechar beneficios por falta de infraestructura digital.</p><p>Los high performers de McKinsey muestran el camino: inversi&#243;n real (20% vs 7% del presupuesto digital), redise&#241;o de workflows desde cero asumiendo IA como parte del sistema, y liderazgo que usa IA personalmente y demuestra compromiso visible.</p><p>La CEPAL confirma la urgencia: &#8220;Para el periodo 2020-2025, la poblaci&#243;n dependiente crecer&#225; m&#225;s que la poblaci&#243;n en edad de trabajar, lo que indica el fin del bono demogr&#225;fico regional.&#8221;</p><h2><strong>La Apuesta Existencial</strong></h2><p>La primera ola&#8212;Estados Unidos, Europa, Jap&#243;n&#8212;envejeci&#243; con riqueza pero sin preparaci&#243;n suficiente. Por eso enfrentan crisis de salud. Por eso su productividad cay&#243; en sectores cr&#237;ticos.</p><p>Nosotros, la segunda ola, vemos sus errores. Y tenemos, por primera vez, una tecnolog&#237;a comprobada que puede multiplicar la productividad cuando la fuerza de trabajo decline.</p><p>La pregunta no es &#8220;&#191;usamos IA?&#8221; (88% ya lo hace). La pregunta es: &#8220;&#191;Construimos la capacidad para que la IA compense el declive demogr&#225;fico?&#8221;</p><p>Si llegamos a 2035-2040 con poblaci&#243;n trabajadora en declive y la misma productividad por trabajador, el resultado est&#225; escrito: envejeceremos sin haber enriquecido. Y eso no tiene vuelta atr&#225;s.</p><p>Los pr&#243;ximos 10-15 a&#241;os son los a&#241;os con m&#225;s trabajadores que tendremos jam&#225;s. Esta ventana demogr&#225;fica existe para prepararnos para cuando decline. Si no la usamos para implementar la IA a escala real, aumentar productividad dram&#225;ticamente, y preparar infraestructura digital, estaremos repitiendo el error que el Banco Mundial identific&#243;: envejecer antes de enriquecer.</p><p>La tercera ola&#8212;&#193;frica subsahariana, peak en 2065&#8212;nos estar&#225; observando. &#191;Qu&#233; ver&#225;n? &#191;Una regi&#243;n que aprovech&#243; su ventana para dar el salto necesario? &#191;O una que desperdici&#243; su mejor d&#233;cada mientras el reloj corr&#237;a?</p><p>McKinsey public&#243; tres datos clave en 2025: adopci&#243;n de IA (88%), las tres olas demogr&#225;ficas, y el d&#233;ficit de salud (1.1 trillones de oportunidad). No son cifras aisladas. Son tres piezas del mismo puzzle.</p><p>La cuesti&#243;n demogr&#225;fica no espera. La pregunta es si Latinoam&#233;rica actuar&#225; a tiempo.</p>]]></content:encoded></item><item><title><![CDATA[De Piloto a Producción: Por qué el 95% de las iniciativas de IA fracasan (y cómo Latinoamérica puede cerrar la brecha)]]></title><description><![CDATA[OpenAI acaba de publicar el reporte m&#225;s completo sobre IA empresarial hasta la fecha. Los datos confirman lo que muchos sospech&#225;bamos: La tecnolog&#237;a no es el problema. La capacidad organizacional s&#237;.]]></description><link>https://www.laultimainterfaz.com/p/de-piloto-a-produccion-por-que-el</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/de-piloto-a-produccion-por-que-el</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 16 Dec 2025 13:02:40 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/dd0e1c10-f023-4116-95cc-ce4b0135ba4e_2432x1728.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El 8 de diciembre de 2025, OpenAI public&#243;<a href="https://openai.com/index/the-state-of-enterprise-ai-2025-report/"> &#8220;The State of Enterprise AI 2025&#8221;</a>, un an&#225;lisis basado en m&#225;s de 1 mill&#243;n de clientes empresariales y casi 100 empresas encuestadas. El documento es denso, con decenas de gr&#225;ficos y m&#233;tricas de adopci&#243;n. Pero hay un dato que resume todo: Existe una brecha masiva entre las empresas que est&#225;n capturando valor real de la IA y las que simplemente est&#225;n jugando con ella.</p><p>Hace meses<a href="https://www.laultimainterfaz.com/p/por-que-fallan-los-pilotos-de-ia"> analic&#233; por qu&#233; el 95% de los pilotos de IA fracasan</a> y<a href="https://www.laultimainterfaz.com/p/la-verdadera-barrera-para-la-ia-no"> c&#243;mo el ego frena la adopci&#243;n</a>. Este reporte de OpenAI a&#241;ade algo que esos an&#225;lisis no ten&#237;an: datos duros y a escala sobre qu&#233; separa exactamente a los ganadores de los perdedores. No son solo hip&#243;tesis sobre cultura organizacional. Son patrones medibles, repetibles y, lo m&#225;s importante, replicables.</p><p>Los n&#250;meros son contundentes. Los trabajadores &#8220;frontera&#8221; (95&#186; percentil de uso) generan 6x m&#225;s mensajes que el trabajador promedio. En tareas de programaci&#243;n, la diferencia salta a 17x. Las empresas l&#237;deres env&#237;an 7x m&#225;s mensajes a GPTs personalizados que la mediana. Y lo m&#225;s revelador: el 19% de usuarios activos mensuales nunca ha usado an&#225;lisis de datos, el 14% nunca ha usado razonamiento avanzado, el 12% nunca ha usado b&#250;squeda web.</p><p>No es un problema de acceso. Es un problema de ejecuci&#243;n.</p><p>Para Latinoam&#233;rica, esto deber&#237;a sonar como una alarma. Y tambi&#233;n como una oportunidad.</p><h2><strong>La paradoja latinoamericana: Crecimiento explosivo sobre bases diminutas</strong></h2><p>Los datos de adopci&#243;n en la regi&#243;n son, a primera vista, espectaculares. Brasil creci&#243;<a href="https://openai.com/index/the-state-of-enterprise-ai-2025-report/"> 161% a&#241;o contra a&#241;o en clientes empresariales de OpenAI</a>. Australia 187%, Pa&#237;ses Bajos 153%, Francia 146%. La regi&#243;n representa<a href="https://www.cepal.org/en/pressreleases/latin-america-and-caribbean-accelerate-adoption-artificial-intelligence-though"> el 14% de las visitas globales a soluciones de IA</a> y ocupa el tercer lugar mundial en descargas de aplicaciones de IA generativa.</p><p>Pero hay que leer la letra chica.</p><p>Seg&#250;n el<a href="https://www.cepal.org/en/notes/ilia-2025-consolidated-policy-design-instrument-artificial-intelligence-region"> &#237;ndice ILIA 2025</a> (Latin American Artificial Intelligence Index) de CEPAL y CENIA publicado en octubre de 2025, Latinoam&#233;rica representa el 6.6% del PIB global pero solo recibe el 1.12% de la inversi&#243;n global en IA. La brecha de talento se est&#225; ampliando, no cerrando. Y mientras Brasil lidera con el 38.2% del mercado regional de IA, el volumen absoluto sigue siendo una fracci&#243;n de lo que vemos en Estados Unidos, Europa o Asia.</p><p>El crecimiento porcentual es real. Pero venimos de una base muy peque&#241;a.</p><p>La pregunta no es si estamos adoptando IA (claramente s&#237;). La pregunta es si estamos desarrollando la capacidad organizacional para capturar valor a escala. Y aqu&#237; es donde el reporte de OpenAI se vuelve inc&#243;modo.</p><h2><strong>Los cinco patrones que separan l&#237;deres de rezagados</strong></h2><p>OpenAI identific&#243; cinco caracter&#237;sticas que comparten las organizaciones que est&#225;n ganando con IA. No son secretos. No requieren presupuestos billonarios. Pero s&#237; requieren disciplina, liderazgo y una comprensi&#243;n clara de que esto es transformaci&#243;n organizacional, no un proyecto de TI.</p><h3><strong>1. Integraci&#243;n profunda de sistemas (no solo acceso superficial)</strong></h3><p>Una de cada cuatro empresas todav&#237;a no ha conectado sus datos internos a las herramientas de IA. Le dan acceso a ChatGPT a sus empleados pero no conectan el CRM, el ERP, la documentaci&#243;n interna. Es como comprar un auto de carreras pero llenarlo con gasolina de mala calidad.</p><p>Las empresas l&#237;deres conectan el contexto real. Sus sistemas de IA leen tickets de soporte, historial de clientes, documentos t&#233;cnicos internos. No porque sea dif&#237;cil t&#233;cnicamente (no lo es), sino porque requiere coordinaci&#243;n entre equipos, claridad sobre privacidad de datos y gobernanza clara.</p><p>BBVA M&#233;xico es un ejemplo perfecto citado en el estudio de OpenAI. Automatizaron el proceso de &#8220;bastanteo&#8221; legal (validaci&#243;n de autoridad para firmar contratos corporativos) con un chatbot que accede a FAQs pre validadas por el equipo legal. Resultado: 9,000 consultas automatizadas al a&#241;o, 3 empleados equivalentes liberados para trabajo de mayor valor, 26% del objetivo anual de ahorro de la divisi&#243;n.</p><p>El problema no era t&#233;cnico. Era organizacional.</p><h3><strong>2. Estandarizaci&#243;n de flujos de trabajo (Custom GPTs, no uso ca&#243;tico)</strong></h3><p>BBVA usa m&#225;s de 4,000 GPTs personalizados de forma regular. No son 4,000 experimentos aislados. Son soluciones reutilizables para problemas repetitivos que toda la organizaci&#243;n comparte y descubre.</p><p>El uso de Custom GPTs y Projects en ChatGPT Enterprise creci&#243; 19x este a&#241;o. El 20% de todos los mensajes empresariales ahora se procesan a trav&#233;s de un GPT personalizado. Esto no es casualidad. Es el resultado de organizaciones que codificaron conocimiento institucional en interfaces reutilizables.</p><p>Cuando cada persona en tu empresa est&#225; reinventando la rueda cada vez que usa IA, no est&#225;s escalando. Est&#225;s multiplicando el esfuerzo lo que no crea valor organizacional.</p><h3><strong>3. Liderazgo ejecutivo real (mandatos claros, recursos asignados)</strong></h3><p>Esto no es un proyecto que TI puede liderar solo. Los l&#237;deres que est&#225;n ganando establecen mandatos claros desde arriba, aseguran recursos, alinean equipos y crean espacio para experimentaci&#243;n (con barreras de protecci&#243;n).</p><p><a href="https://www.bcg.com/press/24october2024-ai-adoption-in-2024-74-of-companies-struggle-to-achieve-and-scale-value">BCG public&#243; un estudio paralelo</a> en octubre de 2024 que encontr&#243; que solo el 26% de empresas globales han desarrollado las capacidades necesarias para generar valor tangible con IA. El 70% de los desaf&#237;os son de personas y procesos. Solo el 10% son problemas de algoritmos.</p><p>Si tu CEO cree que esto es &#8220;un tema de tecnolog&#237;a&#8221;, ya perdiste.</p><h3><strong>4. Preparaci&#243;n de datos y evaluaci&#243;n continua (no esperanza ciega)</strong></h3><p>Las organizaciones l&#237;deres codifican conocimiento institucional en rutinas legibles por m&#225;quinas. Construyen APIs para pipelines de datos cr&#237;ticos. Ejecutan evaluaciones continuas para medir desempe&#241;o en casos de uso reales.</p><p>Moderna comprimi&#243; el desarrollo de Target Product Profiles (TPP) de semanas a horas en algunos casos. El proceso requer&#237;a revisar paquetes de evidencia de hasta 300 p&#225;ginas y coordinar equipos de cl&#237;nica, producto y marketing. ChatGPT Enterprise ayuda a extraer hechos clave, generar borradores estructurados y marcar detalles importantes para revisi&#243;n humana.</p><p>Cada d&#237;a ganado en planificaci&#243;n temprana significa medicamentos m&#225;s r&#225;pido para los pacientes. Pero esto solo funciona porque Moderna invirti&#243; en estructurar sus datos y definir m&#233;tricas claras de &#233;xito.</p><h3><strong>5. Gesti&#243;n deliberada del cambio (aprendizaje organizacional continuo)</strong></h3><p>OpenAI lanza una nueva caracter&#237;stica o capacidad aproximadamente cada tres d&#237;as. El problema ya no es el desempe&#241;o del modelo o las herramientas disponibles. El problema es la preparaci&#243;n organizacional.</p><p>Las empresas l&#237;deres construyen estructuras que aceleran aprendizaje: gobernanza centralizada combinada con habilitaci&#243;n distribuida a trav&#233;s de &#8220;campeones de IA&#8221; incrustados en equipos. No es capacitaci&#243;n de una vez. Es capacidad continua.</p><p>Seg&#250;n<a href="https://news.sap.com/latinamerica/files/2025/06/05/Regional-IA-in-the-corporate-world-External.pdf"> datos de SAP para Latinoam&#233;rica</a>, el 50% de empresas latinoamericanas actualmente invierten en capacitaci&#243;n de IA, mientras que el 46% planea comenzar en 2025. Brasil lidera con 62% de inversi&#243;n actual, seguido por Colombia con 53%. Entre las grandes empresas, el 81% en Brasil y Colombia ya proporcionan capacitaci&#243;n a sus equipos.</p><p>Pero capacitaci&#243;n sin cambio en procesos, sin mandato ejecutivo, sin integraci&#243;n de datos, no sirve de mucho. Es como ense&#241;ar a manejar sin dar acceso a un auto.</p><h2><strong>La brecha que se est&#225; abriendo</strong></h2><p>El reporte de OpenAI muestra algo preocupante: la distancia entre l&#237;deres y rezagados se est&#225; ampliando, no cerrando.</p><p>Los trabajadores frontera no solo usan m&#225;s IA. La usan de forma cualitativamente diferente. Utilizan m&#250;ltiples modelos, activan herramientas avanzadas, aplican IA en 7 tipos distintos de tareas vs. 4 en el promedio. Y reportan ahorrar 5x m&#225;s tiempo.</p><p>Entre usuarios que ahorran m&#225;s de 10 horas semanales, el consumo de &#8220;inteligencia&#8221; (medido en cr&#233;ditos) es 8x mayor que quienes ahorran menos de 2 horas. No es que trabajen m&#225;s horas. Es que desarrollaron dominio sobre herramientas m&#225;s sofisticadas.</p><p>A nivel empresarial, las firmas frontera generan 2x m&#225;s mensajes por asiento que la mediana. Y 7x m&#225;s mensajes a GPTs personalizados (p&#225;g. 15). Esto indica integraci&#243;n profunda en flujos de trabajo, no uso superficial.</p><p>La pregunta inc&#243;moda: &#191;en qu&#233; lado de esta brecha est&#225; tu empresa?</p><h2><strong>El momento latinoamericano</strong></h2><p>Aqu&#237; est&#225; la buena noticia: los cinco patrones de las organizaciones l&#237;deres no son secretos propietarios. Est&#225;n disponibles para cualquier empresa que decida ejecutar con disciplina.</p><p>Y Latinoam&#233;rica tiene una ventaja estructural que pocas regiones pueden reclamar: no arrastramos sistemas legacy masivos como Europa, no tenemos regulaciones tan complejas como Estados Unidos en algunas industrias, y la necesidad de productividad es urgente.</p><p>El<a href="https://www.imf.org/en/Publications/WP/Issues/2024/10/11/What-Can-Artificial-Intelligence-Do-for-Stagnant-Productivity-in-Latin-America-and-the-556243"> IMF public&#243; un estudio</a> mostrando que la productividad en Latinoam&#233;rica lleva d&#233;cadas estancada, a diferencia de Asia emergente que mostr&#243; convergencia r&#225;pida. La IA presenta una oportunidad hist&#243;rica para cerrar esa brecha, pero s&#243;lo si resolvemos el problema organizacional primero.</p><p><a href="https://www.cepal.org/en/notes/ilia-2025-consolidated-policy-design-instrument-artificial-intelligence-region">Chile lidera el &#237;ndice ILIA con 73.07 puntos sobre 100</a>, seguido de Brasil (69.30) y Uruguay (64.98). Pero el promedio regional sigue significativamente por debajo del global. La mayor&#237;a de pa&#237;ses tienen estrategias nacionales de IA, pero muchas carecen de financiamiento, mecanismos de implementaci&#243;n y sistemas de evaluaci&#243;n de impacto.</p><p>En otras palabras: tenemos planes, pero no capacidad de ejecuci&#243;n.</p><h2><strong>Los casos que importan</strong></h2><p>M&#225;s all&#225; de BBVA y Moderna, el reporte documenta tres casos adicionales que ilustran c&#243;mo diferentes industrias est&#225;n capturando valor:</p><p><strong>Lowe&#8217;s</strong> despleg&#243; Mylow en su sitio web y Mylow Companion en el 100% de sus 1,700 tiendas. Cuando los clientes interact&#250;an con Mylow durante visitas online, la tasa de conversi&#243;n se duplica. Cuando los asociados en la tienda usan Mylow Companion para ayudar a clientes, los puntajes de satisfacci&#243;n aumentan 200 puntos base. Responden casi 1 mill&#243;n de preguntas mensuales sobre productos, proyectos y estatus de &#243;rdenes.</p><p><strong>Indeed</strong> usa IA propietaria para hacer matching combinada con explicaciones generadas por GPT que ayudan a candidatos entender por qu&#233; un rol es buen fit. En experimentos, las invitaciones a aplicar con explicaciones generadas por LLMs aumentaron las aplicaciones iniciadas en un 20% y mejoraron el &#233;xito posterior (entrevistas y contrataciones) 13% vs. el matching tradicional. Los usuarios de Career Scout encuentran y aplican a empleos relevantes 7x m&#225;s r&#225;pido y tienen 38% m&#225;s probabilidad de ser contratados.</p><p><strong>Oscar Health</strong> desarroll&#243; chatbots que responden preguntas sobre beneficios, costos y salud general en tiempo real, integrados con registros m&#233;dicos, reclamos e interacciones de servicio al cliente. Resuelven el 58% de preguntas sobre beneficios instant&#225;neamente y manejan el 39% de mensajes sobre beneficios sin escalamiento humano.</p><p>Ninguno de estos casos es sobre tecnolog&#237;a imposible. Todos son sobre integraci&#243;n deliberada en procesos cr&#237;ticos de negocio.</p><h2><strong>Infraestructura v/s modelos: la ventaja competitiva real</strong></h2><p>Hay un dato del reporte que valida algo que he argumentado antes: el consumo promedio de tokens de razonamiento por organizaci&#243;n v&#237;a API aument&#243; 320x en los &#250;ltimos 12 meses. Esto indica que m&#225;s empresas est&#225;n integrando modelos directamente en productos y sistemas con alto grado de control y personalizaci&#243;n.</p><p>M&#225;s de 9,000 organizaciones han procesado m&#225;s de 10 mil millones de tokens. Casi 200 han superado el 1 bill&#243;n de tokens. Codex, aunque todav&#237;a temprano en su ciclo empresarial, est&#225; ganando tracci&#243;n r&#225;pida: 2x aumento en usuarios activos semanales y 50% m&#225;s mensajes semanales en las &#250;ltimas seis semanas.</p><p>Los modelos son temporales. La infraestructura es permanente.</p><p>Cuando construyes gobernanza clara, pipelines de datos limpios, procesos de evaluaci&#243;n continua y capacidad organizacional para adoptar nuevas herramientas r&#225;pidamente, no importa si OpenAI, Anthropic o Google lanza el pr&#243;ximo modelo milagroso. Puedes adoptarlo en semanas, no a&#241;os.</p><p>Las empresas que est&#225;n ganando no son necesariamente las que tienen acceso a los mejores modelos. Son las que construyeron los mejores sistemas alrededor de esos modelos.</p><h2><strong>La pregunta que deber&#237;as hacerte</strong></h2><p>El reporte de OpenAI no es solo un documento sobre adopci&#243;n de IA. Es un espejo que muestra capacidad de ejecuci&#243;n organizacional.</p><p>Si tu empresa tiene acceso a ChatGPT Enterprise pero solo el 10% de empleados lo usa regularmente, no tienes un problema de tecnolog&#237;a. Tienes un problema de gesti&#243;n de cambio.</p><p>Si lanzaron cinco pilotos de IA pero ninguno lleg&#243; a producci&#243;n, no necesitas mejor IA. Necesitas mejor alineaci&#243;n entre equipos, mandatos ejecutivos m&#225;s claros y procesos de evaluaci&#243;n m&#225;s rigurosos.</p><p>Si tus empleados t&#233;cnicos usan IA intensivamente pero el resto de la organizaci&#243;n la ignora, tienes un problema de democratizaci&#243;n de conocimiento, no de acceso a herramientas.</p><p><a href="https://www.laultimainterfaz.com/p/por-que-fallan-los-pilotos-de-ia">El MIT report&#243; que m&#225;s del 95% de pilotos de IA generativa est&#225;n fallando en empresas</a>.<a href="https://www.bcg.com/press/24october2024-ai-adoption-in-2024-74-of-companies-struggle-to-achieve-and-scale-value"> BCG encontr&#243; que el 74% de empresas luchan por generar valor a escala</a>. La<a href="https://www.oecd.org/en/publications/2025/06/governing-with-artificial-intelligence_398fa287/full-report/implementation-challenges-that-hinder-the-strategic-use-of-ai-in-government_05cfe2bb.html"> OCDE document&#243; que m&#225;s del 80% de proyectos de IA fallan</a>, el doble de la tasa de proyectos no-IA.</p><p>El problema nunca fue la tecnolog&#237;a.</p><h2><strong>La ventana est&#225; abierta</strong></h2><p>Brasil, M&#233;xico, Colombia, Chile, Argentina: todos est&#225;n invirtiendo en estrategias nacionales de IA, todos est&#225;n viendo crecimiento de adopci&#243;n, todos tienen talento t&#233;cnico capaz. Pero pocos est&#225;n desarrollando la capacidad organizacional sistem&#225;tica que el reporte de OpenAI identifica como diferenciador cr&#237;tico.</p><p>La ventana de oportunidad est&#225; abierta ahora. Las empresas que desarrollen esa capacidad en los pr&#243;ximos 12-24 meses capturar&#225;n el mercado. Las que sigan lanzando pilotos sin estrategia de escalamiento quedar&#225;n rezagadas de forma probablemente irreversible.</p><p>No se trata de adoptar IA. Se trata de transformar c&#243;mo tu organizaci&#243;n aprende, ejecuta y se adapta.</p><p>Y eso, lamentablemente, no se compra. Se construye.</p>]]></content:encoded></item><item><title><![CDATA[La Última Interfaz requiere la Primera Infraestructura: Por qué Microsoft apuesta a lo mundano]]></title><description><![CDATA[Mientras todos persiguen el modelo m&#225;s brillante, Satya Nadella revela d&#243;nde est&#225; realmente el poder]]></description><link>https://www.laultimainterfaz.com/p/la-ultima-interfaz-requiere-la-primera</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-ultima-interfaz-requiere-la-primera</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 02 Dec 2025 13:02:21 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/d51c7712-8188-46a9-b50f-e380f0aa0bbe_2816x1536.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El 12 de noviembre de 2025 Satya Nadella, CEO de Microsoft, recorri&#243; las instalaciones de Fairwater 2 en Atlanta con <a href="https://www.youtube.com/@DwarkeshPatel">Dwarkesh Patel</a> y <a href="https://semianalysis.com/dylan-patel/">Dylan Patel</a> (fundador de SemiAnalysis), mostrando lo que Microsoft describe como el datacenter de IA m&#225;s poderoso del mundo. En medio del rugido de los sistemas de enfriamiento y las filas interminables de racks vac&#237;os esperando GPUs, Nadella dej&#243; escapar una frase que resume la paradoja de su estrategia: <strong>&#8220;Dirijo una compa&#241;&#237;a de software. Bienvenidos a la compa&#241;&#237;a de software&#8221;</strong>.</p><p>La iron&#237;a es evidente. Microsoft est&#225; invirtiendo cientos de miles de millones en acero, silicio y electricidad. Construyendo infraestructura industrial a una escala que rivaliza con plantas nucleares. Y sin embargo, Nadella insiste: esto sigue siendo una empresa de software.</p><p>&#191;Qu&#233; est&#225; pasando realmente? La respuesta revela una de las apuestas estrat&#233;gicas m&#225;s audaces de la era de la IA. Y para las empresas latinoamericanas navegando esta transformaci&#243;n, es la diferencia entre construir un castillo en la arena o cimentar ventajas duraderas.</p><h2>La maldici&#243;n del ganador</h2><p>Durante esa <a href="https://www.youtube.com/watch?v=8-boBsWcr5A">conversaci&#243;n</a> en Fairwater 2, Nadella articul&#243; una de las tesis m&#225;s contraintuitivas sobre el futuro de la IA:</p><p><strong>&#8220;Puedo argumentar que si eres una compa&#241;&#237;a de modelos, puedes tener la maldici&#243;n del ganador. Hiciste todo el trabajo duro, innovaci&#243;n incre&#237;ble, excepto que est&#225; a una copia de distancia de ser comoditizado&#8221;</strong>.</p><p>Piensa en eso por un momento. Los modelos de IA &#8212;por m&#225;s brillantes que sean&#8212; est&#225;n fundamentalmente expuestos a la comoditizaci&#243;n. Los modelos de AI se pueden copiar. Las t&#233;cnicas se replican. Las capacidades convergen. Ya lo estamos viendo: m&#250;ltiples modelos compiten en capacidades similares, y la ventaja competitiva de cualquier modelo individual se erosiona constantemente.</p><p>Pero la infraestructura que provisiona, asegura, gobierna y orquesta esos modelos... esa no se copia tan f&#225;cilmente.</p><p>Microsoft entendi&#243; esto. Por eso, mientras todos miran el brillo de ChatGPT, ellos est&#225;n construyendo algo mucho menos sexy pero infinitamente m&#225;s estrat&#233;gico: la plomer&#237;a del futuro de la IA.</p><h2>Fairwater: La f&#225;brica de IA que cambia las reglas</h2><p>Fairwater 2 hab&#237;a comenzado operaciones recientemente cuando se realiz&#243; el tour en noviembre de 2025, mostr&#225;ndose ya como una demostraci&#243;n de la nueva arquitectura de Microsoft. Pero los n&#250;meros que Nadella y su equipo revelaron son los que realmente importan:</p><ul><li><p>Cientos de miles de GPUs NVIDIA GB200 y GB300 desplegadas en una sola red plana</p></li><li><p>M&#225;s de 2 gigawatts de capacidad agregada entre todas las instalaciones Fairwater</p></li><li><p>193.000 kil&#243;metros de fibra &#243;ptica dedicada agregados en un solo a&#241;o (un aumento del 25%)</p></li><li><p>Dise&#241;o de dos pisos para maximizar densidad y minimizar latencia entre racks</p></li><li><p>Sistema de enfriamiento l&#237;quido de circuito cerrado</p></li><li><p>Una red de 1 petabit que conecta m&#250;ltiples sitios dentro de Fairwater</p></li></ul><p>Durante el tour, Scott Guthrie (EVP de Cloud y IA de Microsoft) explic&#243; que el objetivo es <strong>&#8220;10x la capacidad de entrenamiento cada 18 a 24 meses&#8221;</strong>. Y que la &#243;ptica de red en un solo edificio equivale a todo Azure de hace dos a&#241;os y medio.</p><p>Pero aqu&#237; est&#225; lo cr&#237;tico que Nadella enfatiz&#243; repetidamente: <strong>&#8220;Quieres estar escalando en el tiempo, en lugar de escalar una vez y quedarte atascado con eso&#8221;</strong>.</p><p>&#191;Por qu&#233; esta obsesi&#243;n con la fungibilidad? Porque Nadella vio venir algo que muchos a&#250;n no entienden: <strong>&#8220;Va a haber un nuevo chip. Tomemos Vera Rubin Ultra&#8221;</strong> &#8212;la pr&#243;xima generaci&#243;n de GPUs de NVIDIA despu&#233;s de Blackwell&#8212; <strong>&#8220;Tendr&#225; una densidad de potencia tan diferente, con requisitos de enfriamiento tan diferentes. As&#237; que no quieres construir todo para una sola especificaci&#243;n&#8221;</strong>.</p><p>La era de la IA es brutal con la obsolescencia. Los chips de vanguardia de hoy, ser&#225;n mediocres en 18 meses. Construir una instalaci&#243;n monol&#237;tica optimizada para una sola generaci&#243;n de hardware es como construir una f&#225;brica que solo puede producir un modelo de auto. Cuando el modelo se vuelve obsoleto, toda la f&#225;brica se vuelve obsoleta.</p><p>Microsoft est&#225; apostando a algo m&#225;s inteligente: infraestructura modular que puede adaptarse a m&#250;ltiples cargas de trabajo (pre-entrenamiento, ajuste fino, aprendizaje por refuerzo, generaci&#243;n de datos sint&#233;ticos, inferencia) y que puede actualizarse incrementalmente sin tener que reconstruir todo desde cero.</p><h2>El negocio oculto: Scaffolding sobre modelos</h2><p>Mientras las startups de IA pelean por tener el modelo m&#225;s potente, Microsoft est&#225; construyendo silenciosamente algo m&#225;s valioso: el <strong>scaffolding</strong> &#8212;los andamios&#8212; que sostienen todo el ecosistema.</p><p>Como escribe Saanya Ojha en su <a href="https://substack.com/inbox/post/178753368">an&#225;lisis</a> de la estrategia de Microsoft: <strong>&#8220;Los modelos son temporales. El gobierno es para siempre&#8221;</strong>.</p><p>&#191;Qu&#233; es el scaffolding? Son las cosas aburridas que nadie ve pero que todos necesitan:</p><p><strong>1. Identidad y credenciales de agentes</strong><br>Como Nadella explic&#243; en la entrevista: <strong>&#8220;Nuestro negocio, que hoy es un negocio de herramientas para usuarios finales, se convertir&#225; esencialmente en un negocio de infraestructura para apoyar a los agentes haciendo el trabajo&#8221;</strong>.</p><p>Cada agente de IA necesitar&#225; su propia identidad credenciada. Pi&#233;nsalo como darle a cada agente su propio usuario, contrase&#241;a y permisos de acceso. Microsoft est&#225; construyendo esa capa de identidad a escala.</p><p><strong>2. Almacenamiento y memoria persistente</strong><br>Los agentes necesitan recordar contexto de sesi&#243;n en sesi&#243;n. Esa memoria no flota en el &#233;ter &#8212;vive en infraestructura de almacenamiento, bases de datos, sistemas de archivos. Todo eso requiere provisi&#243;n, seguridad, backups, y discovery legal.</p><p><strong>3. Per&#237;metros de seguridad y control de acceso</strong><br>Un agente que maneja finanzas no deber&#237;a tener acceso a emails personales. Uno que escribe c&#243;digo no deber&#237;a poder modificar bases de datos de producci&#243;n. Alguien tiene que establecer y hacer cumplir esos l&#237;mites, con auditor&#237;as y logs completos.</p><p><strong>4. Observabilidad y auditor&#237;a</strong><br>Cuando un agente hace algo raro, necesitas saber qu&#233; pas&#243;, por qu&#233;, y c&#243;mo evitar que vuelva a pasar. Necesitas m&#233;tricas, trazabilidad, la capacidad de hacer rollback. Esa es infraestructura cr&#237;tica de misi&#243;n.</p><p>Todo esto es <strong>profundamente aburrido</strong>. No aparece en la portada de <a href="https://techcrunch.com/">TechCrunch</a>. No genera videos virales. Pero es donde est&#225; el verdadero poder duradero.</p><h2>El modelo de negocio del futuro: Pricing por agente</h2><p>Seg&#250;n el an&#225;lisis de Saanya Ojha, Microsoft est&#225; evolucionando su modelo de negocio de manera fundamental. Las subscripciones tradicionales (pagar $X por mes por acceso a software) est&#225;n transform&#225;ndose. El futuro es <strong>&#8220;entitlements para consumir IA&#8221;</strong> &#8212;b&#225;sicamente, pagas por cu&#225;nta capacidad de agente puedes usar.</p><p>M&#225;s espec&#237;ficamente, el pricing ser&#225; <strong>&#8220;por agente&#8221;</strong>. Cada agente tendr&#225; su propio costo basado en:</p><ul><li><p>Cu&#225;ntos tokens consume</p></li><li><p>Cu&#225;nta memoria y almacenamiento necesita</p></li><li><p>Qu&#233; nivel de modelo usa</p></li><li><p>Qu&#233; per&#237;metro de seguridad requiere</p></li><li><p>Qu&#233; nivel de observabilidad demanda</p></li></ul><p>Como dice Saanya: <strong>&#8220;Microsoft 365 evoluciona de suite para usuarios finales a infraestructura para compa&#241;eros de trabajo aut&#243;nomos&#8221;</strong>.</p><p>&#191;Y los m&#225;rgenes? Son m&#225;s bajos que software tradicional, porque la inferencia de IA es cara. Pero el mercado se expande tan masivamente que compensa con creces. GitHub Copilot, seg&#250;n Saanya, pas&#243; de cero a una escala de varios miles de millones d&#243;lares en aproximadamente un a&#241;o, a pesar de los costos de c&#243;mputo.</p><h2>GitHub: El cable bundle de agentes</h2><p>Durante la entrevista, Dylan Patel mostr&#243; un gr&#225;fico revelador: la categor&#237;a de agentes de c&#243;digo ha crecido de aproximadamente 500 millones de d&#243;lares de run rate a finales de 2024 (solo GitHub Copilot) a <strong>5-6 mil millones de d&#243;lares de run rate</strong> en Q4 de 2025. Ahora compiten GitHub Copilot, Cursor, Claude Code, Windsurf, Replit, Cognition y OpenAI Codex.</p><p>La reacci&#243;n de Nadella fue fascinante: <strong>&#8220;Me encanta este gr&#225;fico. Por tantas razones. La primera es que todav&#237;a estamos liderando el mercado. La segunda es que todas estas compa&#241;&#237;as listadas aqu&#237; son compa&#241;&#237;as que nacieron en los &#250;ltimos cuatro o cinco a&#241;os&#8221;</strong>.</p><p>Pero aqu&#237; est&#225; la jugada maestra que pocos est&#225;n viendo. Nadella no necesita que Copilot &#8220;gane&#8221; la carrera de agentes de programaci&#243;n. Porque todos esos competidores usan GitHub como backend.</p><p>Como explic&#243; Nadella: <strong>&#8220;Lo m&#225;s interesante que ha pasado es que todos los repos de todos estos otros tipos que est&#225;n generando much&#237;simo c&#243;digo van a GitHub. GitHub est&#225; en m&#225;ximos hist&#243;ricos en t&#233;rminos de creaci&#243;n de repos, PRs, todo&#8221;</strong>.</p><p>La estrategia es construir <strong>&#8220;Agent HQ&#8221;</strong> &#8212;el cuartel general de agentes. Una consola donde las empresas pueden lanzar m&#250;ltiples agentes, orquestar tareas, monitorear ejecuciones. Como lo describe Nadella: <strong>&#8220;El cable TV de todos estos agentes de IA&#8221;</strong>.</p><p>No importa cu&#225;l agente espec&#237;fico uses para programar &#8212;todos necesitan un repositorio, todos generan pull requests, todos requieren control de versiones. Mientras uses GitHub, Microsoft gana. Y el efecto de red se refuerza: m&#225;s actividad = m&#225;s valor para desarrolladores = m&#225;s dif&#237;cil migrar a otra plataforma.</p><h2>La lecci&#243;n para empresas latinoamericanas</h2><p>Casi nadie puede construir datacenters de 2 gigawatts. Pero la lecci&#243;n estrat&#233;gica de Microsoft es universalmente aplicable:</p><p><strong>Construye sobre tus ventajas estructurales, no sobre las de otros</strong>.</p><p>Las <a href="https://www.laultimainterfaz.com/p/la-ventaja-de-los-incumbentes-en">empresas incumbentes</a> en Am&#233;rica Latina tienen algo que ninguna startup de IA puede replicar f&#225;cilmente: <strong>clientes reales y datos reales</strong>. Tienen relaciones de d&#233;cadas con retailers, distribuidores, vendedores. Tienen informaci&#243;n de patrones de compra, comportamientos de pago, preferencias regionales, din&#225;micas de canal.</p><p>Eso es infraestructura. No del tipo de hardware y GPUs, sino del tipo de relaciones y datos. Y es mucho m&#225;s dif&#237;cil de commoditizar que cualquier modelo.</p><p>En <a href="https://yom.ai/">Yom</a>, estamos aplicando exactamente esta filosof&#237;a. No estamos apostando a tener el mejor modelo de IA del mundo &#8212;eso ser&#237;a como competir con OpenAI, Anthropic, o Google en su propio terreno. Estamos apostando a tener el mejor <strong>scaffolding de agentes para el canal tradicional en Latinoam&#233;rica</strong>.</p><p>Nuestro sistema de tres agentes (B2B, Call Center, WhatsApp) no reemplaza a los equipos de ventas humanos sino que los complementa, les da m&#225;s control, m&#225;s visibilidad, y m&#225;s capacidad. Y todo est&#225; orquestado sobre la infraestructura de relaciones y datos que las empresas ya tienen.</p><p>Es la misma l&#243;gica de Microsoft: no necesitamos ser OpenAI. Necesitamos ser la plataforma que hace que OpenAI (y Claude, y Gemini, y lo que venga despu&#233;s) sea &#250;til para resolver problemas reales en mercados fragmentados.</p><h2>La apuesta de confianza sobre capacidad</h2><p>Al final de la entrevista con Dwarkesh y Dylan, despu&#233;s de discutir la competencia china, soberan&#237;a digital, y el futuro multipolar de la IA, Nadella ofreci&#243; quiz&#225;s la insight m&#225;s profunda de toda la conversaci&#243;n:</p><p><strong>&#8220;Puede que la caracter&#237;stica m&#225;s importante no sea ni siquiera la capacidad del modelo. Es: &#8216;&#191;Puedo confiar en ti, tu pa&#237;s, y sus instituciones para ser un proveedor de largo plazo?&#8217;&#8221;</strong></p><p>Esto explica por qu&#233; Microsoft invierte tanto en cosas como:</p><ul><li><p>EU Data Boundary (l&#237;mites de datos europeos)</p></li><li><p>Clouds soberanos en Francia y Alemania</p></li><li><p>Confidential computing (computaci&#243;n confidencial)</p></li><li><p>Garant&#237;as de zero-standing-access (cero acceso permanente)</p></li></ul><p>No es solo compliance. Es construir confianza como una capa de infraestructura.</p><p>Para empresas latinoamericanas, la lecci&#243;n es clara: <strong>tu ventaja no es solo lo que puedes hacer, sino en qui&#233;n pueden confiar tus clientes para hacerlo de manera sostenida</strong>.</p><p>&#191;Tienes 30 a&#241;os de historial operando en mercados complejos? Eso es infraestructura de confianza. &#191;Entiendes las regulaciones locales de 5 pa&#237;ses diferentes? Eso es infraestructura de confianza. &#191;Tienes relaciones personales con los due&#241;os de 10.000 tiendas? Eso es infraestructura de confianza.</p><p>Todo eso es m&#225;s dif&#237;cil de replicar que cualquier modelo de IA.</p><h2>El verdadero significado de &#8220;La &#218;ltima Interfaz&#8221;</h2><p>He sostenido que la IA representa &#8220;la &#250;ltima interfaz&#8221;: La capacidad de hablar directamente con las computadoras en lenguaje humano como la evoluci&#243;n final de la interacci&#243;n humano-m&#225;quina.</p><p>Pero aqu&#237; est&#225; el matiz que la estrategia de Microsoft ilumina: <strong>la &#250;ltima interfaz requiere la primera infraestructura</strong>.</p><p>La magia de hablar con un agente y que &#8220;simplemente funcione&#8221; no es magia. Es el resultado de cientos de sistemas invisibles trabajando en armon&#237;a: identidad, autenticaci&#243;n, almacenamiento, memoria persistente, observabilidad, seguridad, auditor&#237;a, orquestaci&#243;n.</p><p>Cuando le pides a un agente que &#8220;prepare un an&#225;lisis de mis clientes top en Colombia del &#250;ltimo trimestre y comp&#225;ralo con Brasil&#8221;, lo que parece una simple conversaci&#243;n en realidad dispara:</p><ul><li><p>Autenticaci&#243;n: &#191;Tienes permiso para ver esos datos?</p></li><li><p>Recuperaci&#243;n: &#191;D&#243;nde est&#225;n esos datos y en qu&#233; formato?</p></li><li><p>Orquestaci&#243;n: &#191;Qu&#233; modelos necesitamos llamar y en qu&#233; orden?</p></li><li><p>Ejecuci&#243;n: &#191;C&#243;mo procesamos millones de registros eficientemente?</p></li><li><p>Almacenamiento: &#191;D&#243;nde guardamos los resultados para futuras consultas?</p></li><li><p>Observabilidad: Si algo falla, &#191;c&#243;mo lo detectamos y corregimos?</p></li></ul><p>Todo eso es infraestructura. Aburrida, invisible, pero absolutamente esencial.</p><h2>La apuesta a largo plazo</h2><p>Microsoft est&#225; haciendo una apuesta multibillonaria: que en la era de los agentes de IA, quien controle la infraestructura controlar&#225; el valor. Que los modelos se volver&#225;n intercambiables (OpenAI hoy, Claude ma&#241;ana, algo nuevo pasado ma&#241;ana), pero la plataforma que los hace &#250;tiles, seguros y gobernables ser&#225; donde se captura el valor durable.</p><p>&#191;Es una apuesta segura? El tiempo lo dir&#225;. Los m&#225;rgenes se est&#225;n comprimiendo. Los CAPEX son astron&#243;micos. La tasa de obsolescencia de hardware es brutal.</p><p>Pero si Microsoft tiene raz&#243;n &#8212;si efectivamente el futuro es agentes proliferando exponencialmente, cada uno necesitando identidad, memoria, seguridad, observabilidad&#8212; entonces construir la plataforma que provee todo eso no es un gasto, es la inversi&#243;n m&#225;s inteligente posible.</p><p>Como se&#241;al&#243; Nadella durante el tour mientras observaban las celdas vac&#237;as esperando racks de GPUs: <strong>&#8220;Dirijo una compa&#241;&#237;a de software. Bienvenidos a la compa&#241;&#237;a de software&#8221;</strong>.</p><p>La iron&#237;a no pod&#237;a ser m&#225;s evidente. Pero tambi&#233;n la estrategia.</p><h2>Tu movimiento</h2><p>Para ti, l&#237;der de una empresa en Am&#233;rica Latina, la pregunta es: <strong>&#191;Cu&#225;l es tu equivalente de scaffolding?</strong></p><p>&#191;Qu&#233; infraestructura invisible tienes o puedes construir que haga que la IA sea &#250;til para tus clientes espec&#237;ficos? &#191;Qu&#233; relaciones, datos, conocimientos, procesos tienes que son dif&#237;ciles de replicar?</p><p>Porque aqu&#237; est&#225; la verdad inc&#243;moda: si tu &#250;nica estrategia de IA es &#8220;usar ChatGPT&#8221; o &#8220;implementar un chatbot&#8221;, est&#225;s construyendo sobre la infraestructura de otros. Y cuando todos construyen sobre la misma infraestructura gen&#233;rica, el &#250;nico diferenciador que queda es el precio. Es una carrera hacia el fondo.</p><p>Pero si construyes tu propio scaffolding -sistemas de identidad de agentes espec&#237;ficos para tu industria, memoria persistente de interacciones con clientes en tu mercado, orquestaci&#243;n de procesos &#250;nicos de tu canal- entonces est&#225;s creando ventajas defensibles.</p><p>No se trata de tener el mejor modelo. Se trata de tener la mejor infraestructura para que cualquier modelo sirva a tus problemas espec&#237;ficos.</p><p><strong>Lo mundano siempre vence a lo brillante. Solo que lo mundano toma m&#225;s tiempo en mostrar su poder.</strong></p>]]></content:encoded></item><item><title><![CDATA[No llegaste tarde: Carta abierta para quienes tienen 18 años y tienen incertidumbre respecto de su futuro profesional con la AI]]></title><description><![CDATA[Hace poco, Andrew Ng -fundador de Google Brain, ex Chief Scientist de Baidu, cofundador de Coursera, y profesor adjunto en Stanford- recibi&#243; un email que probablemente resume el miedo silencioso de toda una generaci&#243;n:]]></description><link>https://www.laultimainterfaz.com/p/no-llegaste-tarde-carta-abierta-para</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/no-llegaste-tarde-carta-abierta-para</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Thu, 20 Nov 2025 17:38:05 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/4f47a563-ca9e-4c4f-967a-0671c63f7c55_1360x784.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace poco, <a href="https://es.wikipedia.org/wiki/Andrew_Ng">Andrew Ng</a> -fundador de Google Brain, ex Chief Scientist de Baidu, cofundador de Coursera, y profesor adjunto en Stanford- recibi&#243; un email que probablemente resume el miedo silencioso de toda una generaci&#243;n:</p><blockquote><p>&#8220;Por favor, d&#237;game la verdad.<br>&#191;Llegu&#233; tarde?<br>Cuando termine mi carrera, la IA ya har&#225; todo.<br>&#191;Qu&#233; me queda a m&#237;?<br>&#191;Voy a vivir del ingreso b&#225;sico universal?&#8221;</p></blockquote><p>El mensaje ven&#237;a de un joven de 18 a&#241;os, a punto de entrar a la universidad.</p><p><a href="https://www.deeplearning.ai/the-batch/issue-327/">Andrew comparti&#243; esta historia en The Batch</a> y le respondi&#243; para tranquilizarlo. Esta carta es mi respuesta para ti.</p><p>Si tienes 18, 20, 25 a&#241;os y sientes que el mundo tecnol&#243;gico ya decidi&#243; tu futuro sin consultarte, esto es para ti. Si tus padres est&#225;n leyendo esto primero porque comparten tu preocupaci&#243;n, perfecto. Ojal&#225; te lo compartan.</p><p>Porque la narrativa que te hicieron creer es falsa.</p><h2>El apocalipsis que no viene (pero te venden todos los d&#237;as)</h2><p>Vivimos en una &#233;poca donde la conversaci&#243;n p&#250;blica sobre IA est&#225; intoxicada por dos extremos igualmente paralizantes:</p><p><strong>El triunfalismo exagerado:</strong> &#8220;AGI est&#225; a la vuelta de la esquina, nada de lo que estudies servir&#225;.&#8221;</p><p><strong>El fatalismo paralizante:</strong> &#8220;Todo lo que aprendas ser&#225; automatizado antes de que termines la carrera.&#8221;</p><p>Ambas narrativas tienen un elemento de verdad... pero son profundamente enga&#241;osas.</p><p>Andrew Ng lo explica con claridad: la IA actual es simult&#225;neamente impresionante y extremadamente limitada. Puedes usar ChatGPT para escribir c&#243;digo, analizar documentos, resumir textos complejos. Eso es real. Pero tambi&#233;n falla en tareas b&#225;sicas de juicio humano: priorizar tu agenda, evaluar un CV con criterio real, decidir qu&#233; producto comprar, razonar paso a paso cuando hay ambig&#252;edad.</p><p>Los modelos avanzan r&#225;pido, s&#237;. Pero no tan r&#225;pido como algunos te quieren hacer creer.</p><p>Cuando <a href="https://wiki.aiimpacts.org/ai_timelines/predictions_of_human-level_ai_timelines/ai_timeline_surveys/2023_expert_survey_on_progress_in_ai">investigadores de AI Impacts encuestaron a 2,778 expertos en machine learning</a> en 2023 para preguntar en qu&#233; a&#241;o esperan alcanzar &#8220;inteligencia de nivel humano&#8221; (HLMI), la mediana de las respuestas fue 2047. Un rango enorme, lleno de incertidumbre. Nada de &#8220;cinco a&#241;os y se acab&#243; todo&#8221;.</p><p>Demis Hassabis, CEO de Google DeepMind, <a href="https://www.bigtechnology.com/p/google-deepmind-ceo-demis-hassabis">ha sido claro en m&#250;ltiples entrevistas</a>: los modelos actuales no tienen memoria estable, no aprenden de forma continua del entorno, no tienen razonamiento robusto y son incapaces de operar con sentido com&#250;n en contextos no textuales. &#8220;Hay algunas capacidades que faltan: cosas como razonamiento, planificaci&#243;n jer&#225;rquica, memoria de largo plazo&#8221;, explic&#243; en enero de 2025. No tienen las bases cognitivas de una mente humana.</p><p><a href="https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier">McKinsey estima</a> que la adopci&#243;n laboral de sistemas de IA a nivel masivo tomar&#225; d&#233;cadas, como ha ocurrido con todas las grandes oleadas tecnol&#243;gicas del pasado. La historia no cambia solo porque las demos nos impresionen.</p><p>Todo esto apunta a una verdad simple que rara vez se dice en voz alta: <strong>No llegaste tarde a nada. Est&#225;s entrando justo en el momento en que quienes aprendan primero, liderar&#225;n despu&#233;s.</strong></p><h2>El peligro real no es la IA</h2><p>El verdadero riesgo para tu generaci&#243;n no es que los modelos se vuelvan demasiado inteligentes demasiado r&#225;pido. Es que te convenzas de que ya no vales, de que &#8220;no tiene sentido intentarlo&#8221;, de que &#8220;la IA har&#225; todo mejor&#8221;.</p><p>Ese pensamiento es profundamente equivocado.</p><h3>La IA a&#250;n depende cr&#237;ticamente de humanos para funcionar</h3><p>Puede sonar contraintuitivo, pero es verdad: la IA no funciona en un vac&#237;o.</p><p>Para que un sistema funcione hay que integrarlo, contextualizarlo, alimentarlo con datos, darle las herramientas adecuadas, medir su rendimiento, corregirlo, versionarlo, auditarlo, y adaptarlo al flujo de trabajo real.</p><p>Eso requiere inteligencia humana. Mucha.</p><p>Cuando Andrew Ng cont&#243; que hab&#237;an logrado construir un software de evaluaci&#243;n automatizado de CVs con IA, coment&#243; algo central: s&#237;, funciona... pero lo que nadie ve es la enorme cantidad de trabajo humano que tom&#243; que funcionara.</p><p>Los modelos son capaces de hacer mucho, pero no saben c&#243;mo encajar en un sistema complejo sin ti.</p><h3>La IA es general... pero no tan general</h3><p>Los modelos actuales son &#8220;generalistas&#8221; en t&#233;rminos de texto, pero no en t&#233;rminos de tareas. S&#237;, responden a cualquier pregunta. Pero eso no significa que puedan hacer bien cualquier trabajo.</p><p>De hecho: son fr&#225;giles ante variaciones sutiles, necesitan instrucciones expl&#237;citas, no poseen memoria estable a largo plazo, no tienen motivaci&#243;n, intuici&#243;n ni criterio moral, y no comprenden consecuencias reales.</p><p>La apariencia de inteligencia no es inteligencia general. Confundirlas solo genera ansiedad innecesaria.</p><h3>No compites contra la IA. Compites contra otros humanos que saben usarla</h3><p>&#201;ste es el punto m&#225;s importante de toda esta carta.</p><p>No necesitas ser mejor que un modelo. Necesitas ser mejor que una persona que todav&#237;a no sabe usarlo.</p><p>Si t&#250; aprendes a construir con IA, estar&#225;s en una posici&#243;n inmejorable para liderar productos, crear empresas, automatizar tareas, mejorar procesos, convertirte en un profesional 10x.</p><p>La verdadera pregunta no es &#8220;&#191;La IA me reemplazar&#225;?&#8221; sino &#8220;&#191;Aprender&#233; a amplificar mi talento con IA?&#8221;</p><h2>Qu&#233; est&#225; cambiando realmente (y por qu&#233; te conviene)</h2><p>Perdamos el miedo y vayamos a los hechos.</p><p>Seg&#250;n el <a href="https://www.weforum.org/publications/the-future-of-jobs-report-2025/">World Economic Forum</a>, las habilidades relacionadas con IA y an&#225;lisis de datos estar&#225;n entre las tres m&#225;s demandadas del mundo al 2028. El crecimiento esperado de puestos ligados a IA supera el 30% anual. En <a href="https://economicgraph.linkedin.com/">LinkedIn</a>, los trabajos que requieren IA han crecido 21 veces en menos de una d&#233;cada.</p><p>Jam&#225;s ha habido un mejor momento para entrar.</p><p>Sin IA: prototipar era lento, programar era dif&#237;cil, analizar datos era para especialistas, dise&#241;ar soluciones requer&#237;a equipos completos.</p><p>Con IA: puedes crear una app simple en un fin de semana, prototipar ideas que antes eran imposibles, construir herramientas completas siendo estudiante, aprender m&#225;s r&#225;pido que cualquier generaci&#243;n previa.</p><p>No compites contra expertos: te conviertes en uno m&#225;s r&#225;pido.</p><p>Las profesiones m&#225;s beneficiadas con IA hoy son ingenier&#237;a, derecho, marketing, salud, dise&#241;o, educaci&#243;n, ciencia de datos, finanzas. En cada una, la IA funciona como una &#8220;exoestructura&#8221; intelectual: te permite producir m&#225;s, mejor y m&#225;s r&#225;pido.</p><p>La IA no elimina la necesidad de pensamiento; elimina la necesidad de trabajo repetitivo. Eso te deja espacio para lo humano: criterio, juicio, creatividad, dise&#241;o, contexto, intuici&#243;n.</p><h2>Entonces, &#191;qu&#233; deber&#237;as hacer?</h2><p>Si tienes 18 a&#241;os, esto es lo que te recomiendo hacer desde hoy.</p><p><strong>Aprende a construir con IA (aunque no sepas programar a&#250;n)</strong></p><p>Para empezar no necesitas saber teor&#237;a profunda. Necesitas curiosidad y pr&#225;ctica. Puedes comenzar con un curso introductorio en Coursera, los recursos gratuitos de HuggingFace, tutoriales de GitHub Copilot o ChatGPT.</p><p>Si empiezas hoy, te adelantas a millones de personas que todav&#237;a no entienden esta tecnolog&#237;a.</p><p><strong>Aprende fundamentos que nunca cambian</strong></p><p>Las herramientas cambian. Los fundamentos no. Aprende pensamiento computacional, l&#243;gica, matem&#225;ticas b&#225;sicas, estad&#237;stica, c&#243;mo funcionan los datos, c&#243;mo se dise&#241;a un sistema. Esto te convertir&#225; en alguien capaz de aprender cualquier cosa nueva que llegue.</p><p><strong>Construye proyectos reales (aunque sean peque&#241;os)</strong></p><p>Haz cosas concretas: un bot que resuelva un problema de tu familia, una miniapp que automatice una tarea, un asistente para estudiar, un buscador para documentos, una herramienta de productividad.</p><p>No importa si es peque&#241;o. Lo importante es que lo hiciste t&#250;. Los proyectos son tu verdadero curr&#237;culum en esta nueva era.</p><p><strong>Aprende a evaluar y corregir a la IA</strong></p><p>Las personas con criterio para evaluar resultados y mejorar el desempe&#241;o de un sistema ser&#225;n indispensables. No basta con generar contenido. Tienes que probar, validar, corregir, ajustar prompts, dise&#241;ar flujos, medir.</p><p>Esto es lo que hace a un profesional de IA valioso.</p><p><strong>No te esperes a &#8220;la carrera perfecta&#8221;</strong></p><p>No existe la carrera que te blindar&#225; contra la tecnolog&#237;a. Existe la persona que aprende a construir con ella.</p><p>Puedes estudiar ingenier&#237;a, derecho, dise&#241;o, medicina, econom&#237;a, artes, psicolog&#237;a. Lo esencial es que aprendas a usar IA como herramienta transversal.</p><h2>Una nota para tus padres</h2><p>Tus padres crecieron en otro mundo: uno donde estudiar una carrera significaba tener certezas. Hoy, ellos mismos est&#225;n expuestos a la narrativa alarmista: &#8220;la IA reemplazar&#225; todo&#8221;, &#8220;no habr&#225; trabajos&#8221;, &#8220;el mundo cambi&#243; demasiado&#8221;.</p><p>Pero lo que la evidencia muestra es lo contrario: nunca ha sido m&#225;s valioso tener capacidad de aprender, de adaptarse, de construir y de pensar. Esa capacidad no la tiene ning&#250;n modelo de IA. La tienes t&#250;.</p><p>Muchos padres comparten una preocupaci&#243;n silenciosa: que no saben c&#243;mo aconsejarte sobre tu carrera en un mundo que ellos mismos est&#225;n tratando de entender. Esta carta existe para ayudarlos a ayudarte.</p><h2>Lo que quiero que recuerdes</h2><p>Tres ideas, solo tres:</p><p><strong>1. No llegaste tarde</strong></p><p>Las proyecciones serias coinciden: estamos a d&#233;cadas de distancia de algo remotamente cercano a AGI. Tienes tiempo. Pero no lo desperdicies.</p><p><strong>2. La IA no har&#225; tu trabajo. Har&#225; tu trabajo m&#225;s grande</strong></p><p>Las personas que combinan su talento humano con IA son las que liderar&#225;n esta nueva era.</p><p><strong>3. El mundo necesita de tu curiosidad, tu criterio, tu energ&#237;a y tus ganas de construir</strong></p><p>La IA puede escribir c&#243;digo; pero no puede decidir qu&#233; vale la pena construir.<br>La IA puede resumir textos; pero no puede imaginar futuros.<br>La IA puede ayudarte a aprender; pero no puede aprender en tu lugar.<br>La IA puede automatizar tareas; pero no puede reemplazar prop&#243;sito.</p><p>Ese eres t&#250;.</p><h2>Tu futuro no est&#225; escrito por la IA. Lo escribes t&#250;</h2><p>Si tienes 18 a&#241;os, quiero que escuches esto con claridad: la inteligencia artificial no te roba el futuro. Te entrega una ventaja hist&#243;rica para construirlo.</p><p>Tus padres no tuvieron herramientas as&#237;. Tus profesores tampoco. Ninguna generaci&#243;n las tuvo.</p><p>Puedes crear, construir, experimentar, aprender, equivocarte, probar de nuevo y volver a intentarlo sin pedir permiso.</p><p>La IA no es el fin de las oportunidades; es el comienzo de un nuevo tipo de oportunidad, una donde tu capacidad de aprender vale m&#225;s que tu capacidad de memorizar y donde tu curiosidad vale m&#225;s que tu certeza.</p><p>As&#237; que no te dejes enga&#241;ar por la narrativa fatalista.</p><p>No tengas miedo de la IA.</p><p>Ten miedo de no aprender a usarla.</p><p>Y empieza hoy.</p>]]></content:encoded></item><item><title><![CDATA[Mientras todos miraban a OpenAI, Google construyó algo más valioso]]></title><description><![CDATA[Como Google construy&#243; algo mucho m&#225;s valioso que un modelo, lejos de las luces y el hype de Silicon Valley]]></description><link>https://www.laultimainterfaz.com/p/mientras-todos-miraban-a-openai-google</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/mientras-todos-miraban-a-openai-google</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Thu, 13 Nov 2025 13:00:35 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/4da11e61-eebf-4df4-a3eb-c8e7126b9c5e_1184x864.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace 18 meses, la narrativa en Silicon Valley era clara: Google hab&#237;a perdido la carrera de la inteligencia artificial. La empresa que invent&#243; el Transformer &#8212;la arquitectura detr&#225;s de pr&#225;cticamente todos los modelos de lenguaje modernos&#8212; parec&#237;a incapaz de capitalizar su propia innovaci&#243;n. OpenAI dominaba los titulares, ChatGPT era sin&#243;nimo de AI generativa, y el lanzamiento fallido de Bard se convirti&#243; en el s&#237;mbolo perfecto de un gigante tecnol&#243;gico que no supo moverse r&#225;pido.</p><p>La historia parec&#237;a escribirse sola: El incumbente, lento y burocr&#225;tico, siendo devorado por la startup &#225;gil y disruptiva. Era el gui&#243;n que Silicon Valley adora contar.</p><p>Pero resulta que mientras OpenAI ejecutaba una estrategia de relaciones p&#250;blicas impecable, Google estaba construyendo algo que ninguna startup puede replicar f&#225;cilmente: integraci&#243;n vertical completa desde el chip hasta el usuario final. No hicieron ruido. Simplemente construyeron.</p><p>Y ahora, los n&#250;meros empiezan a contar una historia muy diferente.</p><p>En octubre de 2025, Google report&#243; que procesa m&#225;s de<a href="https://yourstory.com/2025/10/google-alphabet-100-billion-revenue-ai-search-cloud"> 1,3 cuatrillones de tokens al mes</a> &#8212;un<a href="https://www.contentgrip.com/google-first-us100b-quarter/"> crecimiento de 20 veces en un a&#241;o</a>. Anthropic, la empresa detr&#225;s de Claude, acaba de firmar un acuerdo para usar<a href="https://www.anthropic.com/news/expanding-our-use-of-google-cloud-tpus-and-services"> hasta un mill&#243;n de los chips TPU de Google</a>, en un<a href="https://venturebeat.com/ai/google-debuts-ai-chips-with-4x-performance-boost-secures-anthropic-megadeal"> acuerdo valuado en decenas de miles de millones de d&#243;lares</a>. Apple est&#225; negociando pagar<a href="https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri"> aproximadamente mil millones de d&#243;lares anuales</a> por una versi&#243;n personalizada de Gemini para impulsar la nueva Siri. Y<a href="https://techcrunch.com/2025/07/23/googles-ai-overviews-have-2b-monthly-users-ai-mode-100m-in-the-us-and-india/"> 2.000 millones de personas</a> ya usan AI Overviews en Google Search mensualmente.</p><p>Esto no es la historia de un regreso triunfal. Google nunca se cay&#243;. Nosotros simplemente confundimos silencio con inacci&#243;n, y paciencia con debilidad.</p><p>La pregunta real no es c&#243;mo Google &#8220;despert&#243;&#8221;. La pregunta es: &#191;qu&#233; construyeron en silencio que ahora les da una ventaja estructural que pocos pueden replicar? Y m&#225;s importante a&#250;n para los l&#237;deres empresariales en Am&#233;rica Latina: &#191;qu&#233; lecci&#243;n estrat&#233;gica hay aqu&#237; sobre los activos que ya tienes y est&#225;s subestimando?</p><h2><strong>Parte 1: El stack que nadie vio construir</strong></h2><p>Para entender la posici&#243;n de Google hoy, hay que mirar el stack completo que construyeron mientras todos est&#225;bamos distra&#237;dos. En AI, el ganador no es quien hace el mejor demo. Es quien controla la infraestructura completa por la que esa tecnolog&#237;a llega al mundo.</p><h3><strong>La base: hardware propio</strong></h3><p>En noviembre de 2025, Google lanz&#243; Ironwood, su s&#233;ptima generaci&#243;n de TPU. Los n&#250;meros:<a href="https://www.cnbc.com/2025/11/06/google-unveils-ironwood-seventh-generation-tpu-competing-with-nvidia.html"> 4 veces m&#225;s r&#225;pido</a> que su predecesor,<a href="https://www.techzine.eu/news/devices/136139/google-launches-long-awaited-ironwood-tpu-for-ai-inferencing/"> conectando hasta 9.216 chips en un solo pod</a>. Pero lo significativo no es solo la velocidad. Es que por primera vez, Google est&#225; vendiendo sus TPUs externamente, compitiendo directamente con Nvidia.</p><p>La validaci&#243;n lleg&#243; inmediata. Anthropic, empresa de la que Alphabet &#8212;matriz de Google&#8212; posee el 14%,  firm&#243; un acuerdo para acceder hasta un mill&#243;n de chips TPU Ironwood &#8212;un contrato multianual valuado en decenas de miles de millones de d&#243;lares. &#191;Por qu&#233; Anthropic, que tambi&#233;n usa chips de Amazon y Nvidia, apuesta tan fuerte por Google? Seg&#250;n Krishna Rao, CFO de Anthropic: &#8220;La elecci&#243;n refleja el fuerte desempe&#241;o de precio-rendimiento y eficiencia que nuestros equipos han visto con TPUs durante varios a&#241;os.&#8221;</p><p>Traducci&#243;n: Google tiene ventaja en costo por inferencia. En un negocio donde los m&#225;rgenes son brutalmente delgados, eso importa m&#225;s que cualquier prueba de rendimiento puro.</p><h3><strong>La capa intermedia: modelos en toda la superficie</strong></h3><p>Con la infraestructura asegurada, Google despleg&#243; un portafolio completo: texto, imagen, video, razonamiento. La aplicaci&#243;n Gemini alcanz&#243;<a href="https://dataconomy.com/2025/07/24/googles-ai-overviews-now-serve-2-billion-monthly-users/"> 450 millones de usuarios activos mensuales</a> en julio de 2025. Sus modelos de video generan contenido que rutinariamente se vuelve viral y establece nuevos est&#225;ndares.</p><p>La validaci&#243;n externa m&#225;s significativa vino de Apple. Seg&#250;n Bloomberg, Apple est&#225; finalizando un acuerdo para pagar aproximadamente mil millones de d&#243;lares anuales por un modelo personalizado de Gemini con<a href="https://9to5mac.com/2025/11/05/google-gemini-1-billion-deal-apple-siri/"> 1,2 trillones de par&#225;metros</a> para la nueva Siri. Apple evalu&#243; OpenAI y Anthropic, pero eligi&#243; Google &#8212;por rendimiento y precio.</p><p>Que Apple pague mil millones al a&#241;o por tecnolog&#237;a central de un competidor dice todo sobre d&#243;nde est&#225; Google en capacidad de modelos.</p><h3><strong>La superficie: productos con distribuci&#243;n masiva</strong></h3><p>Los buenos chips y modelos no sirven sin usuarios. Y aqu&#237; Google tiene una ventaja casi imposible de replicar.</p><p>AI Overviews alcanz&#243; 2.000 millones de usuarios mensuales. AI Mode lleg&#243; a<a href="https://www.searchenginejournal.com/google-q3-report-ai-mode-ai-overviews-lift-total-search-usage/559597/"> 75 millones de usuarios diarios activos</a>. No son usuarios que Google tuvo que &#8220;educar&#8221;. Ya usaban Google Search, ahora simplemente obtienen respuestas mejoradas con AI. La distribuci&#243;n no cost&#243; nada adicional.</p><p>En Google Cloud,<a href="https://www.mjeggleton.com/blog/ais-not-so-quiet-achiever"> el 70% de los clientes</a> ya usan productos de AI. Deep Research se integra con Gmail, Drive y Chat. Chrome se convirti&#243; en navegador nativo de AI.</p><p>Todo esto genera un volumen dif&#237;cil de conceptualizar: m&#225;s de 1,3 cuatrillones de tokens procesados al mes &#8212;crecimiento de 20 veces a&#241;o contra a&#241;o.</p><h3><strong>El punto que pocos entienden</strong></h3><p>Esta integraci&#243;n vertical crea un ciclo virtuoso: usuarios generan datos &#8594; datos mejoran modelos &#8594; modelos atraen clientes en la nube &#8594; clientes justifican inversi&#243;n en chips &#8594; chips reducen costos &#8594; m&#225;rgenes permiten experimentaci&#243;n &#8594; experimentos mejoran productos &#8594; productos atraen usuarios.</p><p>OpenAI est&#225; tratando de construir este ciclo ahora. Pero est&#225;n a&#241;os atr&#225;s. Google no solo empez&#243; primero. Empez&#243; con activos &#8212;Search, YouTube, Android, Gmail, Cloud&#8212; que OpenAI tendr&#225; que construir desde cero.</p><p>Esta no es una carrera de velocidad. Es de resistencia y con barrera de entrada cada vez m&#225;s alta.</p><h2><strong>Parte 2: Las tres ventajas que pocos vieron venir</strong></h2><p>El stack integrado es impresionante en papel, pero &#191;qu&#233; ventajas concretas genera que los competidores no pueden replicar f&#225;cilmente? Tres destacan por encima del resto.</p><h3><strong>Ventaja 1: Control total del costo de inferencia</strong></h3><p>Una d&#233;cada de inversi&#243;n en TPUs le dio a Google algo que OpenAI, Anthropic y otros no tienen: independencia de Nvidia y control completo sobre su econom&#237;a de c&#243;mputo.</p><p>Cuando Anthropic dice que los TPUs ofrecen &#8220;fuerte desempe&#241;o de precio-rendimiento&#8221;, no est&#225;n siendo diplom&#225;ticos. Est&#225;n reconociendo que en un negocio donde cada token procesado tiene un costo, y donde los m&#225;rgenes son brutalmente delgados, Google puede operar m&#225;s barato que competidores dependientes de GPUs de terceros.</p><p>Esto no es solo una ventaja de costo. Es flexibilidad estrat&#233;gica. Google puede experimentar, ofrecer precios agresivos, subsidiar adopci&#243;n temprana, y absorber periodos de baja rentabilidad mientras construye posici&#243;n de mercado. OpenAI, quemando miles de millones anuales y dependiendo de chips externos, no tiene ese lujo.</p><p>La integraci&#243;n vertical convierte el costo de c&#243;mputo de amenaza existencial en ventaja competitiva.</p><h3><strong>Ventaja 2: Distribuci&#243;n que no se puede comprar</strong></h3><p>OpenAI tiene que convencer a cada usuario de crear una cuenta, aprender una nueva interfaz, y cambiar sus h&#225;bitos &#8212;y lo ha hecho muy bien hasta ahora. Google simplemente mejor&#243; productos que 2.000 millones de personas ya usaban diariamente.</p><p>No es solo Search. Es Gmail, Drive, Docs, Meet, Maps, Chrome, YouTube, Android. Cada uno es un canal de distribuci&#243;n masivo donde Google puede integrar AI sin fricciones. Los usuarios no est&#225;n &#8220;adoptando AI&#8221;. Est&#225;n usando Google como siempre, pero ahora sus herramientas son m&#225;s inteligentes.</p><p>En el lado empresarial, Google Cloud tiene relaciones directas con miles de organizaciones grandes. El 70% ya usa productos de AI de Google. No porque hicieron una &#8220;transformaci&#243;n digital&#8221;. Porque Google los integr&#243; naturalmente en servicios que ya compraban.</p><p>Esta distribuci&#243;n no se puede replicar con capital o marketing. Se construye con d&#233;cadas de producto y confianza. OpenAI puede tener el mejor modelo del mundo, pero a&#250;n tiene que resolver: &#191;c&#243;mo llego a mil millones de usuarios sin depender de distribuidores que tambi&#233;n son mis competidores?</p><h3><strong>Ventaja 3: Un modelo de negocio que ya funciona</strong></h3><p>Aqu&#237; est&#225; la diferencia fundamental que pocos analistas enfatizan: Google no necesita que la AI sea rentable ma&#241;ana. Ya tiene un negocio de 300.000 millones de d&#243;lares generando efectivo.</p><p>Puede subsidiar la adopci&#243;n de la AI, experimentar con modelos de precio, regalar capacidad para ganar participaci&#243;n de mercado, y absorber a&#241;os de inversi&#243;n sin rentabilidad inmediata. &#191;Por qu&#233;? Porque cada interacci&#243;n de AI refuerza su negocio central: entender intenci&#243;n y vender publicidad ultra-segmentada.</p><p>OpenAI est&#225; apostando todo a que podr&#225; monetizar suficientes suscripciones y llamadas de API para justificar una valuaci&#243;n de 150.000 millones y costos operativos anuales de varios miles de millones. Google est&#225; usando AI para hacer su motor de b&#250;squeda &#8212;y por ende, su motor de ingresos publicitarios&#8212; a&#250;n m&#225;s poderoso.</p><p>No son el mismo juego. Uno es una startup quemando capital para encontrar el ajuste producto-mercado a escala. El otro es una empresa establecida integrando nueva tecnolog&#237;a en una m&#225;quina de generar efectivo ya probada.</p><p>Las tres ventajas se refuerzan mutuamente: costos bajos permiten experimentaci&#243;n agresiva, distribuci&#243;n masiva genera datos para mejorar modelos, y el modelo de negocio probado da tiempo ilimitado para iterar hasta encontrar la f&#243;rmula perfecta.</p><p>Esta es la ventaja de la empresa establecida bien ejecutada. No velocidad. Resistencia.</p><h2><strong>Parte 3: La lecci&#243;n para las grandes empresas latinoamericanas</strong></h2><p>Ahora viene la pregunta que realmente importa para CEOs, CTOs e inversionistas en Am&#233;rica Latina: &#191;qu&#233; tiene que ver todo esto con tu negocio?</p><p>Todo.</p><p>Porque la historia de Google no es solo sobre tecnolog&#237;a. Es sobre c&#243;mo un gran incumbente con activos existentes puede convertir esos activos en ventajas competitivas imposibles de replicar en la era de la AI. Y esa lecci&#243;n aplica directamente a las grandes empresas latinoamericanas que hoy creen estar en desventaja frente a startups &#8220;nativas digitales&#8221; o &#8220;AI-first&#8221;.</p><h3><strong>El paralelismo que pocos ven</strong></h3><p>Imagina este escenario: eres CEO de una empresa de consumo masivo con presencia en cinco pa&#237;ses de latinoam&#233;rica. En cada pa&#237;s, tu operaci&#243;n atiende a 50.000 puntos de venta con un equipo de 150 vendedores en la calle. Llegas a una reuni&#243;n de directorio y un consultor te presenta un an&#225;lisis sobre c&#243;mo las startups tecnol&#243;gicas van a &#8220;disrumpir&#8221; la distribuci&#243;n. Te muestran gr&#225;ficas de venta directa al consumidor con AI, plataformas que &#8220;eliminan intermediarios&#8221;, y sistemas predictivos que &#8220;optimizan la cadena completa&#8221;.</p><p>Sales de esa reuni&#243;n pensando: &#8220;Estamos en desventaja. Ellos nacieron digitales, nosotros tenemos vendedores f&#237;sicos. Ellos tienen tableros de control en tiempo real, nosotros tenemos planillas Excel. Vamos a perder.&#8221;</p><p>Google acaba de demostrar que est&#225;s pensando al rev&#233;s.</p><p>Porque mientras te preocupas por lo que NO tienes (agilidad de startup, cultura tecnol&#243;gica, equipos de ingenieros j&#243;venes), est&#225;s ignorando completamente lo que S&#205; tienes y las startups NO: 150 vendedores con relaciones diarias reales en 50.000 puntos de venta por pa&#237;s, d&#233;cadas de datos sobre comportamiento de compra por canal y geograf&#237;a, conocimiento profundo de qu&#233; funciona en cada tipo de local, y &#8212;m&#225;s importante&#8212; flujo de caja para experimentar sin apostar la empresa en cada iteraci&#243;n.</p><p>Esos activos que considerabas heredados &#8212;tu fuerza de ventas, tus relaciones con minoristas, tu conocimiento del territorio&#8212; son exactamente el tipo de ventaja estructural que Google tiene y OpenAI est&#225; tratando desesperadamente de construir.</p><h3><strong>Los activos que realmente importan en la era de la AI</strong></h3><p>D&#233;jame ser espec&#237;fico sobre cu&#225;les son estos activos:</p><p><strong>1. Clientes reales con comportamiento documentado</strong></p><p>Google no necesita &#8220;conseguir usuarios&#8221; para sus productos de AI. Ya tiene 2.000 millones usando Search. T&#250; no necesitas &#8220;conseguir puntos de venta&#8221; para tu sistema de recomendaci&#243;n con AI. Ya tienes 50.000 por pa&#237;s compr&#225;ndote cada semana.</p><p>Las startups gastan millones en adquisici&#243;n tratando de construir lo que t&#250; ya tienes: comercios reales comprando productos reales con &#243;rdenes reales.</p><p><strong>2. Datos operacionales (no gen&#233;ricos)</strong></p><p>Google tiene una d&#233;cada de datos de c&#243;mo la gente usa sus productos. T&#250; tienes a&#241;os de datos sobre qu&#233; compran tus puntos de venta, cu&#225;ndo, en qu&#233; combinaciones, en qu&#233; zonas, a qu&#233; precios responden, qu&#233; promociones funcionan por tipo de canal.</p><p>Esos datos operacionales &#8212;espec&#237;ficos a tu negocio, tu mercado, tus canales&#8212; son infinitamente m&#225;s valiosos para entrenar modelos de AI relevantes que cualquier conjunto de datos gen&#233;rico que una startup pueda conseguir.</p><p><strong>3. Infraestructura de distribuci&#243;n</strong></p><p>Google integr&#243; AI en Chrome, Gmail, Drive, Search &#8212;productos que la gente ya usaba. No tuvieron que &#8220;educar al mercado&#8221; sobre AI. Simplemente mejoraron herramientas existentes.</p><p>T&#250; puedes integrar AI en las rutas de tus vendedores, en la aplicaci&#243;n que usan para tomar &#243;rdenes, en la planificaci&#243;n de visitas, en la predicci&#243;n de demanda por punto de venta. No necesitas construir nuevos canales. Los canales ya existen y ya generan &#243;rdenes.</p><p><strong>4. Capacidad de subsidiar mientras aprendes</strong></p><p>Google puede experimentar con AI durante a&#241;os sin que sea rentable inmediatamente, porque tiene un negocio de 300.000 millones generando efectivo. T&#250; puedes experimentar con AI en ruteo, proyecci&#243;n de demanda, o personalizaci&#243;n de ofertas por punto de venta sin apostar la empresa, porque tienes ingresos estables de tu operaci&#243;n central.</p><p>Las startups tienen 18-24 meses de pista de aterrizaje. Si no encuentran ajuste producto-mercado r&#225;pido, mueren. T&#250; tienes tiempo para iterar hasta que funcione.</p><h3><strong>El error com&#250;n que cometen las grandes empresas</strong></h3><p>El error no es ignorar la AI. El error es pensar que tienes que &#8220;transformarte en una startup&#8221; para competir.</p><p>Ves lo que hacen las startups &#8212;equipos peque&#241;os, cultura de Silicon Valley, todo en la nube, metodolog&#237;as &#225;giles&#8212; y asumes que necesitas replicar eso. Contratas consultoras que te venden &#8220;transformaci&#243;n digital&#8221;. Creas &#8220;laboratorios de innovaci&#243;n&#8221; separados del negocio central. Traes directores de tecnolog&#237;a que hablan de &#8220;disrumpir desde adentro&#8221;.</p><p>Y mientras tanto, ignoras completamente que tu ventaja real est&#225; en ser exactamente lo que eres: una empresa establecida con activos, clientes, datos y distribuci&#243;n que ninguna startup puede replicar en menos de una d&#233;cada.</p><p>Google no trat&#243; de convertirse en OpenAI. Us&#243; sus activos de empresa establecida (infraestructura, distribuci&#243;n, modelo de negocio) para construir ventajas que OpenAI ahora tiene que perseguir.</p><h3><strong>La estrategia correcta: construir sobre lo que tienes</strong></h3><p>Entonces, &#191;cu&#225;l es el libro de jugadas?</p><p><strong>Primero: Maestr&#237;a personal antes que transformaci&#243;n organizacional</strong></p><p>Como escrib&#237; anteriormente, los l&#237;deres que no usan AI personalmente no pueden implementarla organizacionalmente. Antes de contratar una consultora o armar un &#8220;comit&#233; de AI&#8221;, gasta 90 d&#237;as usando AI diariamente en tu trabajo. Escribe correos con AI. Analiza reportes con AI. Prepara presentaciones con AI.</p><p>Solo cuando entiendas visceralmente qu&#233; funciona y qu&#233; no, estar&#225;s listo para tomar decisiones sobre d&#243;nde implementar en la organizaci&#243;n.</p><p><strong>Segundo: Identifica d&#243;nde tu infraestructura existente es ventaja, no lastre</strong></p><p>Preg&#250;ntate: &#191;D&#243;nde tengo datos, clientes o distribuci&#243;n que una startup tardar&#237;a a&#241;os en construir? Ah&#237; es donde la AI tiene un retorno sobre inversi&#243;n m&#225;s alto para ti.</p><p>Si tienes 150 vendedores visitando 50.000 puntos de venta por pa&#237;s, tu ventaja no es competir con plataformas de venta directa puras. Tu ventaja es usar la AI para que cada vendedor llegue al punto de venta correcto, en el momento correcto, con la oferta correcta basada en el hist&#243;rico espec&#237;fico de ese local. Ninguna plataforma gen&#233;rica puede hacer eso.</p><p><strong>Tercero: Integraci&#243;n vertical sobre soluciones puntuales desconectadas</strong></p><p>Google no compr&#243; 47 herramientas de AI diferentes. Construy&#243; un stack integrado donde cada capa refuerza la otra. T&#250; no necesitas 15 proveedores de AI. Necesitas identificar 2-3 puntos de apalancamiento donde AI integrada con tus sistemas existentes crea un ciclo virtuoso.</p><p>Si implementas AI en ruteo de vendedores, aseg&#250;rate que esos datos mejoren tu proyecci&#243;n de demanda. Si usas AI para recomendar productos por punto de venta, conecta esos conocimientos con tu planificaci&#243;n de producci&#243;n. La magia no est&#225; en herramientas aisladas. Est&#225; en la integraci&#243;n.</p><p><strong>Cuarto: Piensa en d&#233;cadas, no en trimestres</strong></p><p>Google invirti&#243; 10 a&#241;os en TPUs antes de que pagaran dividendos. T&#250; no necesitas ver el retorno sobre la inversi&#243;n en 90 d&#237;as. Necesitas identificar qu&#233; capacidades de AI, construidas consistentemente durante 3-5 a&#241;os, te dan una posici&#243;n imposible de replicar en tu mercado.</p><p>Esa mentalidad &#8212;inversi&#243;n paciente en capacidades distintivas&#8212; es exactamente lo que las startups con 24 meses de pista de aterrizaje NO pueden hacer.</p><h2><strong>Cierre</strong></h2><p>Mientras todos miraban a OpenAI hacer ruido, Google demostr&#243; algo fundamental sobre c&#243;mo se gana en la era de la AI: no se trata de ser el primero en el espect&#225;culo medi&#225;tico. Se trata de tener el stack completo cuando el mercado est&#225; listo.</p><p>La integraci&#243;n vertical que Google construy&#243; &#8212;desde chips hasta usuarios&#8212; no se puede replicar con capital de riesgo o campa&#241;as de marketing. Se construye con d&#233;cadas de inversi&#243;n paciente, activos acumulados, y la disciplina de no perseguir cada tendencia que Silicon Valley declara como &#8220;el futuro&#8221;.</p><p>OpenAI ejecut&#243; brillantemente en producto y narrativa. Pero Google estaba jugando un juego diferente: construir infraestructura que se vuelve m&#225;s valiosa con el tiempo, no demostraciones que impresionan hoy y quedan obsoletas ma&#241;ana.</p><p>Para las grandes empresas latinoamericanas, la lecci&#243;n es clara: deja de perseguir startups y empieza a revisar tus activos con nuevos ojos.</p><p>Preg&#250;ntate:</p><ul><li><p>&#191;D&#243;nde tengo distribuci&#243;n que otros no tienen y tardar&#237;an a&#241;os en construir?</p></li><li><p>&#191;Qu&#233; datos operacionales tengo que las startups tendr&#237;an que generar desde cero?</p></li><li><p>&#191;C&#243;mo mi infraestructura actual se convierte en ventaja competitiva con AI integrada?</p></li></ul><p>Las respuestas a esas preguntas son tu foso defensivo. No lo que Silicon Valley dice que deber&#237;as ser. Lo que ya eres, potenciado con la tecnolog&#237;a correcta.</p><p>Google no gan&#243; tratando de ser OpenAI. Gan&#243; siendo Google con AI.</p><p>T&#250; no vas a ganar tratando de ser una startup. Vas a ganar siendo t&#250;, con AI construida sobre los activos que ya tienes.</p><p>La pregunta no es si tienes AI. La pregunta es si est&#225;s construyendo sobre tus ventajas reales o persiguiendo las ventajas de otros.</p><p>Esa diferencia define qui&#233;n lidera y qui&#233;n sigue en los pr&#243;ximos 10 a&#241;os.</p>]]></content:encoded></item><item><title><![CDATA[La rendición de cuentas de la Inteligencia Artificial]]></title><description><![CDATA[De la fascinaci&#243;n al rendimiento: C&#243;mo la IA empresarial entra en su fase m&#225;s humana]]></description><link>https://www.laultimainterfaz.com/p/la-nueva-rendicion-de-cuentas-de</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-nueva-rendicion-de-cuentas-de</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 04 Nov 2025 13:02:45 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/bc22e380-cd77-4cfb-9bb6-09582f0ef2f5_2190x1334.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Hace tres a&#241;os, cuando ChatGPT irrumpi&#243; en la conciencia colectiva, las empresas entraron en p&#225;nico. El miedo a quedarse atr&#225;s&#8212;ese FOMO corporativo tan caracter&#237;stico de cada ciclo tecnol&#243;gico&#8212;dispar&#243; una carrera fren&#233;tica: pilotos, experimentaci&#243;n, presupuestos inflados, consultores car&#237;simos y decenas de reuniones sobre &#8220;nuestra estrategia de IA.&#8221;</p><p>Hoy, en 2025, ese cap&#237;tulo termin&#243;.</p><p>Seg&#250;n el m&#225;s reciente estudio de <a href="https://ai.wharton.upenn.edu/wp-content/uploads/2025/10/2025-Wharton-GBK-AI-Adoption-Report_Full-Report.pdf">Wharton Human-AI Research y GBK Collective</a>&#8212;que encuest&#243; a 801 tomadores de decisiones en empresas grandes de EEUU&#8212; la IA Generativa ya no es un experimento. <strong>Est&#225; en el camino de convertirse en infraestructura cr&#237;tica:</strong> 46% la usa diariamente (+17pp vs 2024), 72% mide ROI formalmente, y 60% tiene un Chief AI Officer.</p><p><strong>Los datos revelaron algo que <a href="https://www.laultimainterfaz.com/p/la-verdadera-barrera-para-la-ia-no">alguna vez coment&#233;</a> en este blog: el activo m&#225;s escaso ya no es la tecnolog&#237;a. Es el talento.</strong></p><p>Con ese entendimiento me anim&#233; a procesar el documento con todos los modelos que ten&#237;a a mi disposici&#243;n :-D&#8212;para buscar qu&#233; otros insights interesantes hab&#237;an&#8212;Esto es lo que encontr&#233;:</p><h2><strong>I. Del FOMO al ROI: Cuando el juguete se convierte en motor</strong></h2><p>Durante 2023, el impulso de adopci&#243;n estuvo gobernado por curiosidad genuina y p&#225;nico controlado. El miedo a quedarse atr&#225;s dispar&#243; una carrera fren&#233;tica. La IA era un experimento de marketing, un hackathon en la internet, un tablero de ideas con potencial indefinido.</p><p>Todos quer&#237;an un piloto. Nadie sab&#237;a qu&#233; hacer con &#233;l.</p><p><strong>Hoy el panorama es radicalmente distinto.</strong></p><p>Tres de cada cuatro compa&#241;&#237;as (74%) miden formalmente el ROI de sus proyectos de IA generativa. Y el 74% afirma obtener retornos positivos&#8212;no proyectados, no esperados: <strong>reales</strong>.</p><p>El cambio m&#225;s profundo no est&#225; en el monto invertido&#8212;aunque el 88% planea aumentos presupuestarios para 2026&#8212;sino en la mentalidad subyacente. Pasamos de la adopci&#243;n impulsiva a lo que Wharton llama <strong>&#8220;rendici&#243;n de cuentas algor&#237;tmica&#8221;</strong>: cada d&#243;lar debe justificarse, cada implementaci&#243;n debe medirse, cada promesa debe cumplirse.</p><p>Y aqu&#237; aparece un dato que lo cambia todo: <strong>30% del presupuesto de Gen AI ya se destina a I+D interno.</strong></p><p>No a comprar licencias de ChatGPT Enterprise. No a contratar consultoras car&#237;simas. A <strong>construir capacidades propietarias</strong>. Las empresas l&#237;deres dejaron de comprar herramientas para comenzar a construir sus propias inteligencias.</p><p>Esto revela algo cr&#237;tico: las soluciones comerciales no dan ventaja competitiva sostenible. Cualquiera puede pagar por Claude o GPT-4. Pocos pueden contratar a los ingenieros que saben construir encima. Menos a&#250;n pueden crear una cultura que permita experimentaci&#243;n r&#225;pida sin caer en el caos.</p><p><strong>El verbo ya no es </strong><em><strong>probar</strong></em><strong>. Es </strong><em><strong>integrar</strong></em><strong>.</strong></p><p>Lo que era un &#8220;proyecto de innovaci&#243;n&#8221; se est&#225; transformando en infraestructura operativa permanente. La IA dej&#243; de ser un departamento para convertirse en el sistema nervioso de la empresa.</p><h2><strong>II. El nuevo cuello de botella: Nosotros (y la paradoja que pocos ven)</strong></h2><p>El informe revela una paradoja brutal: <strong>89% de los l&#237;deres afirma que la IA mejora las habilidades humanas. Pero 43% teme que tambi&#233;n las degrade.</strong></p><p>El riesgo no es el reemplazo. Es la atrofia.</p><p>A medida que las m&#225;quinas asumen tareas cognitivas rutinarias, los humanos corren el peligro de dejar de practicar el pensamiento profundo. Es la versi&#243;n digital del m&#250;sculo que se oxida por falta de uso.</p><p>Wharton lo resume con precisi&#243;n quir&#250;rgica: <strong>&#8220;People, not tools, set the pace.&#8221;</strong></p><p>El cuello de botella ya no es t&#233;cnico. <strong>Es cultural.</strong> Y los datos lo demuestran:</p><ul><li><p>Inversi&#243;n en capacitaci&#243;n: <strong>-8%</strong></p></li><li><p>Confianza en capacitaci&#243;n efectiva: <strong>-14%</strong></p></li><li><p>&#8220;Falta de recursos de entrenamiento&#8221; entra al top 10 de barreras por primera vez</p></li></ul><p>&#191;C&#243;mo es posible que las empresas est&#233;n usando m&#225;s IA, invirtiendo m&#225;s dinero, midiendo m&#225;s ROI... pero invirtiendo MENOS en entrenar a su gente?</p><p>El dato que lo explica: <strong>Expectativa de &#8220;necesitaremos contratar talento completamente nuevo&#8221;:</strong></p><ul><li><p>2024: 6%</p></li><li><p>2025: <strong>14%</strong> (+8pp)</p></li></ul><p>Las empresas est&#225;n dejando de apostar por su gente actual y empezando a buscar reemplazos externos.</p><h3><strong>La brecha invisible: Ejecutivos v/s Gerentes</strong></h3><p>Pero hay algo peor. Existe una <strong>desconexi&#243;n masiva</strong> entre lo que los ejecutivos creen y lo que los gerentes operativos viven:</p><div class="captioned-image-container"><figure><a class="image-link image2" target="_blank" href="https://substackcdn.com/image/fetch/$s_!52br!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!52br!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 424w, https://substackcdn.com/image/fetch/$s_!52br!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 848w, https://substackcdn.com/image/fetch/$s_!52br!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 1272w, https://substackcdn.com/image/fetch/$s_!52br!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!52br!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png" width="1450" height="302" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:302,&quot;width&quot;:1450,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:87519,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://www.laultimainterfaz.com/i/177975176?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!52br!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 424w, https://substackcdn.com/image/fetch/$s_!52br!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 848w, https://substackcdn.com/image/fetch/$s_!52br!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 1272w, https://substackcdn.com/image/fetch/$s_!52br!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F892aeae7-cb65-437d-aa59-5100ea0c2926_1450x302.png 1456w" sizes="100vw" loading="lazy"></picture><div></div></div></a></figure></div><p><strong>Los ejecutivos est&#225;n en el ciclo de la fascinaci&#243;n. Los gerentes est&#225;n en la trinchera.</strong></p><p>Los vicepresidentes van a conferencias sobre IA, leen reportes de Gartner, hablan con vendedores que les muestran demos perfectas. Su narrativa es optimista porque su trabajo es vender la visi&#243;n.</p><p>Los gerentes medios est&#225;n lidiando con herramientas que no se integran, empleados resistentes, resultados inconsistentes y presi&#243;n por entregar ROI sin presupuesto para capacitaci&#243;n.</p><p>Una cita brutal de un Director en Tech/Telecom: <em>&#8220;La mayor reducci&#243;n de trabajo ser&#225; en contrataciones de subcontrataci&#243;n en el extranjero.&#8221;</em></p><p>Mientras los ejecutivos hablan de &#8220;aumentar productividad&#8221; en LinkedIn, los gerentes ya est&#225;n viendo c&#243;mo se recortan posiciones. La narrativa oficial vs la realidad operativa viven en universos paralelos.</p><p><strong>El 60% de las empresas ya tiene un Chief AI Officer. Pero apenas la mitad logra articular una estrategia coherente de talento, entrenamiento y cultura.</strong></p><p>La frontera ya no est&#225; en el modelo de lenguaje. Est&#225; en el lenguaje del modelo organizacional.</p><h2><strong>III. Ganadores vs rezagados: La gran divergencia</strong></h2><p>No todas las industrias est&#225;n jugando el mismo juego.</p><p><strong>ROI positivo por industria:</strong></p><ul><li><p>Tech/Telecom: <strong>88%</strong></p></li><li><p>Banca/Finanzas: <strong>83%</strong></p></li><li><p>Servicios Profesionales: <strong>83%</strong></p></li><li><p>Manufactura: <strong>75%</strong></p></li><li><p><strong>Retail: 54%</strong> &#8592; &#128680;</p></li></ul><p>Retail est&#225; <strong>34 puntos porcentuales</strong> detr&#225;s de Tech. Y esto es parad&#243;jico porque Retail tiene casos de uso obvios: experiencia personalizada, gesti&#243;n de workforce, marketing segmentado, optimizaci&#243;n de supply chain.</p><p><strong>&#191;Por qu&#233; est&#225; perdiendo? </strong>La respuesta no es presupuesto. Es la <strong>fricci&#243;n operativa</strong>.</p><p><strong>Tech/Telecom, Banca, Servicios:</strong> Su producto es c&#243;digo, datos o conocimiento. Todo el flujo ya es digital. Un consultor puede usar Claude para escribir reportes y est&#225; 80% del camino.</p><p><strong>Retail y Manufactura:</strong> Su producto es f&#237;sico. Un minorista puede usar Gen AI para optimizar inventario... pero si su sistema de punto de venta tiene 15 a&#241;os y no se comunica con su ERP, el impacto es marginal.</p><p>Adem&#225;s: m&#225;rgenes ajustados = menos espacio para experimentaci&#243;n, fuerza laboral menos digital = mayor resistencia, regulaciones de atenci&#243;n al cliente = menos automatizaci&#243;n permitida.</p><p>El resultado: Retail tiene el potencial m&#225;s alto pero la ejecuci&#243;n m&#225;s lenta.</p><h3><strong>Los dos arquetipos</strong></h3><p><strong>GANADORES (Tech, Finanzas, Servicios)</strong></p><ul><li><p>Uso semanal: <strong>94%</strong></p></li><li><p>ROI positivo: <strong>83-88%</strong></p></li><li><p>Cultura: Experimentaci&#243;n r&#225;pida + barreras claras (no paranoia)</p></li><li><p>Presupuesto: <strong>30% en I+D interno</strong></p></li><li><p>Estrategia: Construyen capacidades propietarias</p></li></ul><p><strong>REZAGADOS (Retail, Manufactura - 16% del mercado)</strong></p><ul><li><p>Uso semanal: <strong>63%</strong></p></li><li><p>ROI positivo: <strong>54-75%</strong></p></li><li><p>Cultura: &#8220;Esperar y ver&#8221;</p></li><li><p>Presupuesto: Dependencia alta en consultores</p></li><li><p>Estrategia: Esperan la &#8220;herramienta perfecta&#8221; antes de escalar</p></li></ul><p>La diferencia clave no es el presupuesto. <strong>Es la mentalidad.</strong></p><p>Los Rezagados esperan certeza antes de actuar. Pero en tecnolog&#237;a de r&#225;pida evoluci&#243;n, certeza = tarde. Los ganadores entienden que la velocidad de aprendizaje es m&#225;s importante que la precisi&#243;n de las decisiones.</p><p>Mejor fallar r&#225;pido y aprender que esperar la decisi&#243;n perfecta que nunca llega.</p><h2><strong>IV. De la herramienta al tejido: Cuando la IA se vuelve invisible</strong></h2><p>La IA ha pasado del escritorio al tejido de la operaci&#243;n. Ya no cambia el flujo de trabajo: <strong>es el flujo de trabajo.</strong></p><p>Y emerge una nueva especie: los <strong>AI Agents</strong>.</p><p>58% de las empresas ya los utiliza para automatizar soporte interno, detectar fraudes, gestionar contratos 24/7 con 92% de precisi&#243;n, y monitoreo DevOps con resoluci&#243;n autom&#225;tica. Pero, <strong>a&#250;n est&#225;n supervisados por humanos.</strong></p><p>Estamos en la fase &#8220;asistente avanzado&#8221;, no &#8220;agente aut&#243;nomo&#8221;. Los agentes actuales son buenos para tareas repetitivas con reglas claras, NO para decisiones estrat&#233;gicas o ambig&#252;edad sin supervisi&#243;n.</p><p>Una cita de un ejecutivo nivel C: <em>&#8220;Aunque supervisados por humanos, los agentes ya est&#225;n liberando tiempo valioso y acelerando la toma de decisiones entre departamentos.&#8221;</em></p><p>Nota: <strong>&#8220;supervisados por humanos.&#8221; </strong>Los agentes est&#225;n liberando tiempo, no reemplazando gente. Esa es la realidad operativa &#8212; aunque no la narrativa medi&#225;tica.</p><p><strong>2026 marcar&#225; la transici&#243;n al &#8220;Performance at Scale&#8221;:</strong> cuando los modelos dejen de ser proyectos para convertirse en procesos permanentes con KPIs trimestrales.</p><h2><strong>V. La gobernanza del futuro: Cuando la IA se audita a s&#237; misma</strong></h2><p>Toda aceleraci&#243;n necesita fricci&#243;n. Toda potencia necesita frenos.</p><p><strong>Pol&#237;ticas implementadas (2025):</strong></p><ul><li><p><strong>64%</strong> seguridad de datos (+9pp vs 2024)</p></li><li><p><strong>61%</strong> capacitaci&#243;n &#233;tica (+7pp)</p></li><li><p><strong>61%</strong> training y awareness</p></li><li><p><strong>46%</strong> proceso de aprobaci&#243;n expl&#237;cita (<strong>BAJ&#211; -6pp</strong>)</p></li></ul><p>Lo interesante: las pol&#237;ticas suben, pero <strong>los procesos de aprobaci&#243;n BAJAN.</strong></p><p>Las empresas cambiaron de &#8220;pedir permiso&#8221; a &#8220;pedir perd&#243;n&#8221;&#8212;con barreras claras.</p><p>En vez de: <em>&#8220;Necesitas aprobaci&#243;n para cada query&#8221;. </em>Ahora es: <em>&#8220;Puedes usar la AI libremente, pero NO puedes usar: datos sensibles de clientes, informaci&#243;n financiera no p&#250;blica, decisiones de contrataci&#243;n sin supervisi&#243;n.&#8221;</em></p><p><strong>Esto es madurez organizacional.</strong></p><p>Pero lo m&#225;s interesante: <strong>62% de las empresas que usan Gen AI tambi&#233;n la aplica para gestionar riesgos relacionados con IA.</strong></p><p>Top &#225;reas donde usan IA para gobernar IA:</p><ol><li><p>Seguridad IT / Ciberseguridad (67%)</p></li><li><p>Riesgo financiero (58%)</p></li><li><p>Identificaci&#243;n de riesgos (55%)</p></li><li><p>Cumplimiento regulatorio (50%)</p></li></ol><p>Las empresas usan Claude para detectar cuando Claude est&#225; siendo usado incorrectamente: monitoreo de queries para filtraci&#243;n de datos, an&#225;lisis de outputs para detectar alucinaciones, auditor&#237;a automatizada de uso para compliance.</p><p><strong>El espejo se invierte: las empresas ya no miden a la IA, la IA las mide a ellas.</strong></p><p>Y esto crea un ciclo virtuoso: M&#225;s uso &#8594; M&#225;s gobernanza &#8594; M&#225;s IA gobernando &#8594; M&#225;s confianza &#8594; M&#225;s uso.</p><p>Es un flywheel de madurez organizacional que se auto-refuerza.</p><h2><strong>VI. El capital humano como sistema operativo</strong></h2><p><strong>Los 5 cuellos de botella del talento en esta nueva era:</strong></p><p><strong>1. Reclutar talento con habilidades avanzadas (49%)</strong></p><p>No es suficiente saber usar ChatGPT. Las empresas necesitan gente que sepa: ajuste fino de modelos, ingenier&#237;a de prompts avanzada, RAG, evaluaci&#243;n sistem&#225;tica de outputs, integraci&#243;n en sistemas legacy.</p><p>Y ese talento <strong>no existe en cantidad suficiente.</strong></p><p><strong>2. Proveer capacitaci&#243;n efectiva (46%)</strong></p><p>Los cursos gen&#233;ricos no escalan a contextos espec&#237;ficos. Los cursos custom son car&#237;simos y se vuelven obsoletos en 6 meses. El aprendizaje pr&#225;ctico funciona pero no alcanza para 10.000+ empleados.</p><p><strong>3. Mantener moral de empleados en roles impactados (43%)</strong></p><p>Imagina que eres analista junior y ves que Claude hace en 10 minutos lo que a ti te tomaba 2 d&#237;as. &#191;Te sientes motivado o amenazado?</p><p>Las empresas descubren que la productividad aumenta... pero la moral baja. Porque la gente no sabe si est&#225; &#8220;aumentando capacidades&#8221; o &#8220;siendo reemplazada en c&#225;mara lenta.&#8221;</p><p><strong>4. Liderazgo que pueda navegar transformaci&#243;n (41%)</strong></p><p>No se trata de habilidad t&#233;cnica. Se trata de <strong>l&#237;deres que puedan navegar una transformaci&#243;n organizacional profunda</strong> sin mapa ni manual.</p><p>Implementar Gen AI no es como implementar Salesforce. Es cambiar el sistema operativo de c&#243;mo tu empresa piensa, decide y ejecuta.</p><p><strong>5. Estrategia fragmentada (48% / 44% / 44%)</strong></p><p>Las empresas est&#225;n <strong>divididas equitativamente</strong> entre entrenar talento interno, contratar talento externo o contratar consultores.</p><p>No hay consenso. No hay &#8220;best practice&#8221; consolidada. <strong>Nadie ha descubierto &#8220;el camino&#8221; todav&#237;a.</strong></p><h3><strong>El rol invisible: los gerentes medios</strong></h3><p><strong>Los gerentes medios &#8212; no los CEOs ni los ingenieros &#8212; son los verdaderos arquitectos de esta transici&#243;n.</strong></p><p>Ellos dise&#241;an procesos que balancean velocidad con control, entrenan equipos en herramientas nuevas cada 3 meses, traducen potencial t&#233;cnico en impacto medible y gestionan la ansiedad de empleados.</p><p>La historia sugiere que toda revoluci&#243;n tecnol&#243;gica termina siendo una revoluci&#243;n de gesti&#243;n. Esta no ser&#225; diferente.</p><h2><strong>VII. La &#250;ltima frontera (y por qu&#233; es humana)</strong></h2><p>Las emociones maduraron. Donde antes hab&#237;a asombro (2023) y temor (2024), hoy predominan:</p><ul><li><p><strong>Optimismo: 59%</strong></p></li><li><p><strong>Excitaci&#243;n: 59%</strong></p></li><li><p><strong>Cautela consciente: 38%</strong></p></li></ul><p>El deslumbramiento cedi&#243; lugar a respeto pragm&#225;tico. Ya no estamos en &#8220;wow, mira lo que puede hacer.&#8221; Estamos en &#8220;ok, &#191;c&#243;mo hacemos que esto funcione sin romper todo?&#8221;</p><p>El ciclo emocional de la IA refleja el patr&#243;n de cualquier tecnolog&#237;a transformadora:</p><ol><li><p><strong>Fascinaci&#243;n</strong> &#8212; Lo nuevo deslumbra</p></li><li><p><strong>Saturaci&#243;n</strong> &#8212; Lo nuevo se vuelve cotidiano</p></li><li><p><strong>Responsabilidad</strong> &#8212; Lo cotidiano exige criterio</p></li></ol><p><strong>Estamos entrando en la tercera etapa.</strong></p><p>Y esta es la m&#225;s dif&#237;cil. Porque requiere algo que ning&#250;n modelo de lenguaje puede hacer por nosotros: <strong>juicio humano sobre qu&#233; automatizar y qu&#233; no, qu&#233; delegar y qu&#233; preservar.</strong></p><p>La inteligencia artificial super&#243; su prueba t&#233;cnica. Los modelos funcionan. Las APIs son estables. Los costos bajan. <strong>Lo que enfrenta ahora es una prueba moral y organizacional.</strong></p><p>La pregunta no es cu&#225;n capaz es la IA. Es <strong>cu&#225;n capaces somos nosotros de usarla con prop&#243;sito, criterio y responsabilidad.</strong></p><p>El estudio de Wharton lo resume: 2026 ser&#225; el punto de inflexi&#243;n hacia &#8220;performance at scale&#8221;, cuando la IA deje de ser copiloto y se convierta en el veh&#237;culo. Pero ese salto no depende de m&#225;s c&#243;mputo.</p><p>Depende de m&#225;s confianza, m&#225;s entrenamiento y m&#225;s liderazgo.</p><p><strong>La IA ya no es la &#250;ltima interfaz entre el humano y la m&#225;quina. Es la nueva interfaz entre el humano y su propia responsabilidad.</strong></p><h2><strong>Ideas finales</strong></h2><p><strong>&#191;Y t&#250;? &#191;Est&#225;s midiendo el ROI de tus modelos... o el de tu equipo?</strong></p><p>Porque aqu&#237; est&#225; la verdad inc&#243;moda: Todas las empresas tienen acceso a Claude, GPT-4, Gemini. Los modelos son cada vez m&#225;s baratos. Las APIs m&#225;s accesibles.</p><p><strong>Pero no todas tienen:</strong></p><ul><li><p>Ingenieros que saben hacer fine-tuning en contextos espec&#237;ficos</p></li><li><p>Dise&#241;adores que piensan primero en IA</p></li><li><p>L&#237;deres que pueden navegar cambio masivo sin manual</p></li><li><p>Cultura que permite experimentaci&#243;n r&#225;pida con barreras claras</p></li></ul><p>Y eso no se compra. <strong>Se construye.</strong></p><p>No puedes &#8220;comprar&#8221; cultura en AWS Marketplace. No puedes hacer &#8220;fine-tuning&#8221; de liderazgo con m&#225;s GPUs. No puedes &#8220;promptear&#8221; tu camino hacia un cambio efectivo del management en tu empresa.</p><p>Las empresas que ganen en los pr&#243;ximos 5 a&#241;os no ser&#225;n las que tengan mejor tecnolog&#237;a.</p><p>Ser&#225;n las que tengan mejor talento, mejor capacitaci&#243;n, mejor cultura y mejor liderazgo. <strong>Y eso, no se resuelve con una llamada a una API.</strong></p><p>La pr&#243;xima frontera de la inteligencia artificial no ser&#225; t&#233;cnica. <strong>Ser&#225; humana.</strong></p>]]></content:encoded></item><item><title><![CDATA[Por Qué Walmart Sacrificó Control por Distribución]]></title><description><![CDATA[El partnership con OpenAI no es sobre IA. Es sobre qui&#233;n decide d&#243;nde compras, y los retailers est&#225;n del lado perdedor.]]></description><link>https://www.laultimainterfaz.com/p/por-que-walmart-sacrifico-control</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/por-que-walmart-sacrifico-control</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 28 Oct 2025 13:02:41 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/04e72711-b241-4352-b17f-d929a11fe676_1184x864.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>El 14 de octubre, <a href="https://corporate.walmart.com/news/2025/10/14/walmart-partners-with-openai-to-create-ai-first-shopping-experiences">Walmart anunci&#243; un partnership con OpenAI</a> que permitir&#225; a los usuarios comprar productos directamente desde ChatGPT. Las acciones de Walmart subieron 5%, los analistas celebraron el &#8220;liderazgo en agentic commerce&#8221;, y los titulares proclamaron una nueva era del retail.</p><p>Amazon, por su parte, rechaz&#243; el mismo deal. Bloque&#243; los crawlers de OpenAI, invirti&#243; $8 mil millones en Anthropic (un competidor directo de OpenAI), y contin&#250;a construyendo Rufus, su propio asistente de compras con IA.</p><p>&#191;Cu&#225;l es la jugada correcta?</p><p><a href="https://www.ben-evans.com/">Benedict Evans</a>, uno de los analistas de tecnolog&#237;a m&#225;s respetados &#8212;fue partner en <a href="https://a16z.com/">Andreessen Horowitz</a> durante seis a&#241;os y ahora publica an&#225;lisis independientes&#8212; escribi&#243; algo inteligentemente sobrio sobre este anuncio: &#8220;Good for headlines, but not very surprising.&#8221; Su punto es simple: algunos tipos de empresas est&#225;n listas para ser partners de plataformas, otras quieren <em>ser</em> la plataforma. Y ambas estrategias implican trade-offs que hemos visto muchas veces antes.</p><p>Evans plantea las preguntas correctas: &#191;Esto te da clientes nuevos? &#191;Vale la pena ceder el control de la relaci&#243;n y la experiencia? &#191;Cu&#225;nto est&#225;s dispuesto a intercambiar control por distribuci&#243;n?</p><p><strong>La respuesta, como siempre: Depende.</strong></p><p>Pero antes de decidir qu&#233; &#8220;depende&#8221; de qu&#233;, necesitamos analizar el tema porque esta pel&#237;cula ya la vimos antes. Y no termin&#243; bien para los que cedieron el control.</p><div><hr></div><h2><strong>Acto I: Esta Pel&#237;cula Ya La Vimos</strong></h2><p>El patr&#243;n es tan viejo como el internet comercial mismo, y se repite con una regularidad que deber&#237;a hacernos sospechar.</p><p><strong>As&#237; funciona siempre:</strong></p><ol><li><p>Emerge una nueva plataforma de distribuci&#243;n con audiencia masiva</p></li><li><p>La plataforma dice: &#8220;Trae tu inventario/contenido, te damos acceso a millones de usuarios&#8221;</p></li><li><p>El deal parece win-win: ellos tienen audiencia, t&#250; tienes producto</p></li><li><p>Los early adopters prosperan (temporalmente)</p></li><li><p>La plataforma aprende qu&#233; funciona usando datos de todos los participantes</p></li><li><p>La plataforma empieza a monetizar agresivamente</p></li><li><p>Los partners descubren que ya no pueden salirse</p></li><li><p>La plataforma captur&#243; el valor</p></li></ol><p>Hemos visto esta pel&#237;cula al menos tres veces en los &#250;ltimos 20 a&#241;os, y siempre termina igual.</p><h3><strong>Google Shopping: La Original</strong></h3><p>En 2002, Google lanz&#243; &#8220;Google Product Search&#8221; (despu&#233;s rebautizado como Froogle, porque alguien en Mountain View pens&#243; que era gracioso). El pitch era irresistible: &#8220;Sube tu cat&#225;logo, gratis. Te daremos tr&#225;fico de Google.&#8221;</p><p>Los retailers dijeron que s&#237;. &#191;Por qu&#233; no? Tr&#225;fico org&#225;nico de Google, sin pagar un peso.</p><p>Google aprendi&#243; todo lo que necesitaba saber: qu&#233; productos busca la gente, a qu&#233; precios convierten, qu&#233; marcas dominan cada categor&#237;a, qu&#233; keywords importan. Era un curso gratuito de MBA en retail, pagado con los datos de los retailers.</p><p>En 2012, Google convirti&#243; todo el producto en &#8220;Google Shopping&#8221; y lo hizo 100% de pago. Si quer&#237;as aparecer, pagabas por click. Los retailers ya no se pod&#237;an salir porque sus clientes buscaban en Google primero. El que controlaba la barra de b&#250;squeda, controlaba el descubrimiento de productos.</p><p>Hoy, Google Shopping genera decenas de miles de millones en revenue publicitario. Los retailers quedaron reducidos a &#8220;fulfillers&#8221; &#8212; alguien m&#225;s controla la puerta de entrada.</p><h3><strong>Instagram Shopping: El Camino DTC</strong></h3><p>En 2018, Instagram prometi&#243; que las marcas Direct-to-Consumer podr&#237;an etiquetar productos en posts org&#225;nicos y convertir su audiencia en ventas. Gratis. Solo &#8220;etiqueta el producto, el usuario hace tap, compra en tu site.&#8221;</p><p>Las marcas DTC mordieron el anzuelo. Glossier, Warby Parker, Allbirds &#8212; todos construyeron estrategias enteras alrededor de Instagram. La plataforma se volvi&#243; sin&#243;nimo de &#8220;brand building&#8221; para una generaci&#243;n de fundadores.</p><p>Instagram aprendi&#243;: qu&#233; formatos visuales convierten, qu&#233; copy funciona, qu&#233; audiencias compran qu&#233; productos, cu&#225;ndo publicar para maximizar engagement.</p><p>Luego vino el giro: el alcance org&#225;nico colaps&#243;. El algoritmo prioriz&#243; contenido de amigos y familia. Para llegar a tu propia audiencia, ahora necesitabas pagar ads. Instagram lanz&#243; &#8220;Checkout&#8221; (compra sin salir de la app) y quiso quedarse con la comisi&#243;n.</p><p>Las marcas descubrieron que hab&#237;an construido su casa en un terreno arrendado. Instagram ten&#237;a la relaci&#243;n con el cliente. Las marcas solo eran proveedores de inventario.</p><h3><strong>Amazon Marketplace: El Tax Man Invisible</strong></h3><p>Cuando Amazon abri&#243; su Marketplace en el 2000, el pitch era distribuci&#243;n pura: &#8220;Acceso a millones de clientes Prime, pagando solo el 15% de comisi&#243;n.&#8221;</p><p>Las marcas terceras dijeron que s&#237;. El volumen compensaba la comisi&#243;n.</p><p>Amazon aprendi&#243;. Vio qu&#233; categor&#237;as vend&#237;an bien, a qu&#233; precio, con qu&#233; rese&#241;as, qu&#233; productos ten&#237;an mejor margen. Luego lanz&#243; Amazon Basics y compiti&#243; directamente, con la ventaja de controlar el search y las recomendaciones.</p><p>Luego vino el segundo golpe: para aparecer arriba en b&#250;squeda dentro de Amazon, necesitabas pagar Amazon Ads. La comisi&#243;n original de 15% se convirti&#243; en 30-40% del revenue cuando incluyes la publicidad.</p><p>Pero ya no puedes irte. Tus clientes compran en Amazon. Salirse es invisibilidad.</p><p><strong>El patr&#243;n es el mismo en los tres casos:</strong></p><ul><li><p>La plataforma ofrece distribuci&#243;n</p></li><li><p>El partner trae inventario/contenido</p></li><li><p>Fase inicial es genuinamente win-win</p></li><li><p>La plataforma captura aprendizaje permanente</p></li><li><p>La plataforma monetiza, el partner queda atrapado</p></li><li><p>El que controla la interfaz, captura el valor</p></li></ul><p>Walmart-OpenAI es la misma historia. Solo que esta vez, los ciclos son m&#225;s r&#225;pidos y las apuestas m&#225;s altas, porque los efectos de red de la IA son m&#225;s poderosos que los de search o social.</p><div><hr></div><h2><strong>Acto II: Los Jugadores y Sus Apuestas</strong></h2><p>Tres compa&#241;&#237;as, tres estrategias, una pregunta existencial: &#191;qui&#233;n controla La &#218;ltima Interfaz?</p><h3><strong>Walmart: &#8220;Necesitamos Estar Donde Est&#225;n Los Usuarios&#8221;</strong></h3><p>La l&#243;gica de Walmart es superficialmente razonable:</p><p>ChatGPT tiene 800 millones de usuarios semanales. Una porci&#243;n significativa de esas interacciones involucra shopping (OpenAI reporta 50 millones de prompts de shopping por d&#237;a). Walmart no puede ignorar ese tr&#225;fico.</p><p>Adem&#225;s, el precedente es claro: retailers que no estuvieron en Google Shopping temprano perdieron visibilidad. Retailers que no adoptaron Amazon Marketplace temprano quedaron fuera. El costo de esperar es alto.</p><p>Y hay un detalle interesante: ChatGPT ya representaba el 20% del tr&#225;fico de referencia a Walmart <em>antes</em> de este partnership oficial. Aunque el tr&#225;fico de referencia representa menos del 5% del tr&#225;fico total del sitio, la velocidad con que ChatGPT escal&#243; a ser la principal fuente de referencia muestra c&#243;mo la IA est&#225; comenzando a influir en c&#243;mo los consumidores compran online.El partnership simplemente formaliza lo inevitable.</p><p>Entonces, &#191;por qu&#233; no? Trae tus 420 millones de SKUs, prueba la funcionalidad de &#8220;Instant Checkout&#8221;, captura ventas incrementales. En el peor caso, es un experimento. En el mejor caso, eres l&#237;der en la pr&#243;xima ola de commerce.</p><p><strong>El trade-off que Walmart acepta:</strong></p><ul><li><p>&#9989; Gana: Acceso a 800M usuarios semanales, headlines, bump de 5% en el stock, posicionamiento como innovador</p></li><li><p>&#10060; Pierde: Control de la experiencia, datos de comportamiento del usuario, relaci&#243;n directa con el shopper</p></li></ul><h3><strong>Amazon: &#8220;Somos La Plataforma de Destino&#8221;</strong></h3><p>Amazon tom&#243; la decisi&#243;n contraria y lo hizo de manera agresiva:</p><p>Bloque&#243; los crawlers de OpenAI (ChatGPT no puede acceder a data actualizada de Amazon). Invirti&#243; $8 mil millones en <a href="https://www.anthropic.com/">Anthropic</a>, uno de los competidores directos de OpenAI. Est&#225; construyendo Rufus, su propio asistente de compras con IA, que ya est&#225; disponible para todos los usuarios en Estados Unidos.</p><p>La apuesta de Amazon es: &#8220;No necesitamos la distribuci&#243;n de OpenAI. Nosotros <em>somos</em> el destino.&#8221;</p><p>Y los n&#250;meros los respaldan: 300 millones de clientes activos, $575 mil millones en GMV anual, el 40% del e-commerce en Estados Unidos. Rufus est&#225; proyectado para generar $700 millones en ganancias operativas s&#243;lo en 2025.</p><p>M&#225;s importante a&#250;n: Amazon tiene algo que Walmart nunca tendr&#225; &#8212; d&#233;cadas de datos de comportamiento de compra, historial completo de cada usuario, reviews, wishlists, browsing patterns. Esos datos entrenan a Rufus de una manera que ning&#250;n partnership externo podr&#237;a replicar.</p><p><strong>El trade-off que Amazon acepta:</strong></p><ul><li><p>&#9989; Gana: Control total de la experiencia, todos los datos, posibilidad de capturar todo el valor</p></li><li><p>&#10060; Pierde: Los usuarios que prefieren buscar en ChatGPT (por ahora, una minor&#237;a)</p></li></ul><p>Amazon est&#225; apostando a que los usuarios seguir&#225;n yendo directamente a Amazon.com, y que cuando usen IA, usar&#225;n Rufus. Es una apuesta cara ($8B en Anthropic + desarrollo de Rufus), pero coherente con su historia: ser la plataforma, no el partner.</p><h3><strong>OpenAI: Gana Sin Importar Qu&#233;</strong></h3><p>Y aqu&#237; est&#225; el punto que muchos an&#225;lisis omiten: OpenAI aprende de ambas estrategias.</p><p><strong>De Walmart (que participa), OpenAI obtiene:</strong></p><ul><li><p>Data de comportamiento de compra real en conversaciones</p></li><li><p>Retroalimentaci&#243;n sobre qu&#233; recomendaciones funcionan</p></li><li><p>Training data invaluable: miles de interacciones de shopping conversacional</p></li><li><p>Validaci&#243;n de product-market fit para agentic commerce</p></li></ul><p><strong>De Amazon (que rechaza), OpenAI obtiene:</strong></p><ul><li><p>Validaci&#243;n de amenaza existencial (Amazon no rechaza deals triviales)</p></li><li><p>Informaci&#243;n sobre d&#243;nde est&#225;n los espacios vac&#237;os en el mercado</p></li><li><p>Aprendizaje estrat&#233;gico: qu&#233; features construye Amazon en Rufus</p></li><li><p>Oportunidad de posicionar a Walmart/Target/otros como &#8220;la alternativa a Amazon en IA&#8221;</p></li></ul><p>Es un flywheel perfecto:</p><p>M&#225;s retailers en ChatGPT &#8594; M&#225;s prompts de shopping &#8594; Mejor entrenamiento del modelo &#8594; Mejores recomendaciones &#8594; M&#225;s conversiones &#8594;M&#225;s retailers quieren estar en la plataforma</p><p>Y el loop se acelera. Cada interacci&#243;n mejora el modelo. Cada mejora del modelo atrae m&#225;s retailers. Cada retailer nuevo aporta m&#225;s datos.</p><p>OpenAI no necesita que todos participen. Necesita suficiente volumen para entrenar el modelo, y luego los efectos de red hacen el resto. Los que se quedaron fuera eventualmente necesitar&#225;n entrar, pero en peores t&#233;rminos.</p><p>Es la misma din&#225;mica que Google tuvo con Search, o Facebook con Social. El que agrega la demanda (usuarios), eventualmente dicta t&#233;rminos a la oferta (retailers).</p><div><hr></div><h2><strong>Acto III: El Trade-Off Real (Y Por Qu&#233; Facebook Instant Articles Deber&#237;a Preocuparnos)</strong></h2><p>Si esta historia te suena familiar, es porque la vimos hace menos de 10 a&#241;os con un desenlace particularmente aleccionador.</p><h3><strong>El Precedente Olvidado: Facebook Instant Articles</strong></h3><p>En 2015, Facebook lanz&#243; &#8220;Instant Articles&#8221; con un pitch irresistible para publishers:</p><p>&#8220;Los art&#237;culos en mobile son lentos. Los usuarios abandonan antes de leer. Nosotros tenemos la soluci&#243;n: publica tu contenido dentro de Facebook. Carga en menos de 1 segundo. Mejor UX = m&#225;s clicks = m&#225;s revenue para ti.&#8221;</p><p>El deal parec&#237;a win-win:</p><ul><li><p>Publishers manten&#237;an 100% del revenue de ads que vendieran</p></li><li><p>O pod&#237;an usar Facebook Audience Network (70/30 split)</p></li><li><p>Facebook prove&#237;a analytics y distribuci&#243;n en el newsfeed</p></li><li><p>Gratis</p></li></ul><p>New York Times, Washington Post, BuzzFeed, The Atlantic &#8212; todos dijeron que s&#237;.</p><p><strong>Fase 1: Luna de Miel (2015-2016)</strong></p><p>Los publishers subieron todo su contenido. El tr&#225;fico creci&#243;. Facebook promov&#237;a Instant Articles en el algoritmo. Todos ganaban.</p><p><strong>Fase 2: El Algoritmo Cambia (2016-2017)</strong></p><p>Facebook empez&#243; a priorizar &#8220;contenido de amigos y familia&#8221; sobre publishers. El alcance org&#225;nico de los publishers cay&#243; ~50%. Para recuperar el alcance, necesitabas pagar Facebook Ads. Pero tus art&#237;culos ya estaban en Instant Articles, no en tu sitio.</p><p><strong>Fase 3: La Trampa (2017-2018)</strong></p><p>Los publishers descubrieron que:</p><ul><li><p>Facebook captur&#243; la relaci&#243;n con el lector (nunca visitaban el site del publisher)</p></li><li><p>Facebook aprendi&#243; qu&#233; llamados a la acci&#243;n funcionan, qu&#233; temas generan engagement, cu&#225;ndo publicar, etc.</p></li><li><p>Los publishers no pod&#237;an construir listas de email (usuarios nunca sal&#237;an de Facebook)</p></li><li><p>Los publishers no pod&#237;an vender subscripciones (todo pasaba dentro de Facebook)</p></li><li><p>El revenue de ads cay&#243; porque Facebook controlaba el inventario</p></li></ul><p><strong>Fase 4: Retirada (2018-presente)</strong></p><p>Varios publishers abandonaron Instant Articles. Pero el da&#241;o estaba hecho: hab&#237;an perdido el h&#225;bito del usuario de &#8220;ir directo al sitio.&#8221; Facebook ya hab&#237;a aprendido qu&#233; contenido funciona. Los publishers quedaron m&#225;s d&#233;biles que antes de entrar.</p><h3><strong>Los Paralelos con Walmart-OpenAI Son Inquietantes</strong></h3><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!hM83!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!hM83!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 424w, https://substackcdn.com/image/fetch/$s_!hM83!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 848w, https://substackcdn.com/image/fetch/$s_!hM83!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 1272w, https://substackcdn.com/image/fetch/$s_!hM83!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!hM83!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png" width="1454" height="534" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:534,&quot;width&quot;:1454,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:159834,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://www.laultimainterfaz.com/i/177301177?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!hM83!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 424w, https://substackcdn.com/image/fetch/$s_!hM83!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 848w, https://substackcdn.com/image/fetch/$s_!hM83!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 1272w, https://substackcdn.com/image/fetch/$s_!hM83!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F553f37b8-abef-43d9-9eb8-c6eddf18a50a_1454x534.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>La estructura es id&#233;ntica. Y el desenlace probablemente tambi&#233;n.</p><h3><strong>Por Qu&#233; &#8220;Gratis&#8221; Es Temporal</strong></h3><p>Walmart no est&#225; pagando comisi&#243;n a OpenAI (todav&#237;a). Pero OpenAI ya anunci&#243; p&#250;blicamente que cobrar&#225; fees transaccionales a retailers en su plataforma. La pregunta no es <em>si</em>, sino cu&#225;ndo y <em>cu&#225;nto</em>.</p><p>Y cuando llegue ese momento, Walmart tendr&#225; tres opciones:</p><ol><li><p>Pagar la comisi&#243;n (y competir con otros retailers tambi&#233;n pagando)</p></li><li><p>Negociar t&#233;rminos preferenciales (si tiene leverage)</p></li><li><p>Salirse (y perder la visibilidad en ChatGPT)</p></li></ol><p>Pero para entonces, los usuarios ya estar&#225;n acostumbrados a buscar productos en ChatGPT. Salirse ser&#225; p&#233;rdida de market share. Quedarse ser&#225; erosionar el margen.</p><p>Es la misma din&#225;mica que los publishers vivieron con Facebook, los retailers vivieron con Google Shopping, y las marcas vivieron con Amazon Marketplace.</p><h3><strong>El Precio Real: Los Datos</strong></h3><p>El verdadero costo no es la comisi&#243;n futura. Es el aprendizaje que OpenAI captura hoy:</p><ul><li><p>Qu&#233; prompts de shopping convierten vs. cu&#225;les son solo browsing</p></li><li><p>Qu&#233; categor&#237;as de productos la gente compra conversacionalmente</p></li><li><p>Qu&#233; tipo de recomendaciones la gente acepta vs. rechaza</p></li><li><p>Qu&#233; precio sensitivity existe en diferentes categor&#237;as</p></li><li><p>Qu&#233; tipo de meal planning funciona</p></li><li><p>Qu&#233; follow-up questions indican purchase intent</p></li></ul><p>Cada una de estas interacciones entrena el modelo. No solo para Walmart, sino para <em>todos los retailers</em> que vengan despu&#233;s.</p><p>Walmart es el beta tester, pagando con sus propios clientes.</p><p>Y aqu&#237; est&#225; el kicker: ese aprendizaje es <em>permanente</em> y <em>transferible</em>. Cuando Target entre a la plataforma (y lo har&#225;), OpenAI ya sabr&#225; qu&#233; funciona porque aprendi&#243; con Walmart. Target tendr&#225; una mejor experiencia desde el d&#237;a uno, sin haber invertido en descubrimiento.</p><p>Es el equivalente a que Amazon use tus datos de ventas para lanzar Amazon Basics en tu categor&#237;a. Excepto que en este caso, OpenAI puede usar tu data para optimizar la experiencia de <em>todos tus competidores</em>.</p><div><hr></div><h2><strong>It Depends: &#191;Para Qui&#233;n Funciona Este Deal?</strong></h2><p>Ben Evans termina su an&#225;lisis con dos palabras perfectas: &#8220;It depends.&#8221;</p><p>Y tiene raz&#243;n. La respuesta correcta depende de qui&#233;n eres y qu&#233; alternativas tienes.</p><h3><strong>Si Eres Walmart (Top 3 Retailer Global)</strong></h3><p>Este deal tiene sentido <em>como experimento</em>:</p><ul><li><p>Tienes los recursos para apostar a m&#250;ltiples caballos (partnership con OpenAI + desarrollo de Sparky, tu propio asistente)</p></li><li><p>Tienes leverage para negociar mejores t&#233;rminos si el canal se vuelve relevante</p></li><li><p>Puedes absorber el costo de estar equivocado</p></li><li><p>El upside (ser l&#237;der en agentic commerce) justifica el riesgo</p></li></ul><p><strong>Pero incluso para Walmart, las se&#241;ales de alarma deber&#237;an estar sonando:</strong></p><p>&#191;Por qu&#233; Amazon dijo que no? Amazon tiene mejor informaci&#243;n que nadie sobre el futuro del retail. Si ellos decidieron que construir internamente es mejor que buscar un partner, &#191;qu&#233; sabe Amazon que Walmart no?</p><h3><strong>Si Eres Amazon (L&#237;der Absoluto en E-commerce)</strong></h3><p>Rechazar tiene sentido <em>estrat&#233;gicamente</em>:</p><ul><li><p>Tu moat son los datos de comportamiento de compra de 300M clientes</p></li><li><p>Regalarle esos datos a OpenAI ser&#237;a un suicidio estrat&#233;gico</p></li><li><p>Tienes los recursos para construir tu propia soluci&#243;n (Rufus + Alexa+)</p></li><li><p>Tu ventaja competitiva es <em>ser</em> el destino, no <em>aparecer</em> en el destino de otro</p></li></ul><p><strong>El riesgo es:</strong></p><p>Si agentic commerce se vuelve el default y ChatGPT es la interfaz dominante, Amazon quedar&#225; fuera de la conversaci&#243;n. Ser&#225; el MySpace del e-commerce &#8212; todos recuerdan que fue importante, pero nadie lo usa.</p><h3><strong>Si Eres Target, Best Buy, o un Retailer Top 10-50</strong></h3><p>Aqu&#237; es donde se pone feo:</p><ul><li><p>No tienes los recursos de Amazon para construir tu propio asistente de IA de clase mundial, aunque podr&#237;as intentar hacer algo razonablemente bueno&#8230;pero no para ganar en esta carrera</p></li><li><p>No tienes el leverage de Walmart para negociar t&#233;rminos preferenciales</p></li><li><p>Pero tampoco puedes <em>no</em> participar, porque tus competidores s&#237; estar&#225;n en ChatGPT</p></li></ul><p>Est&#225;s atrapado en el peor de los mundos: suficientemente grande para que importe, pero no suficientemente grande para tener opciones.</p><p>Tu &#250;nica jugada es:</p><ol><li><p>Entrar al partnership con OpenAI</p></li><li><p>Rezar para que los t&#233;rminos no se vuelvan extractivos</p></li><li><p>Mientras tanto, invertir en construir relaci&#243;n directa con clientes (email, app, loyalty program)</p></li></ol><p>Pero esa &#250;ltima parte es cada vez m&#225;s dif&#237;cil cuando los consumidores prefieren buscar en ChatGPT.</p><h3><strong>Si Eres un Retailer Mediano o Peque&#241;o</strong></h3><p>Francamente, est&#225;s en serios problemas.</p><p>No tienes recursos para construir tu propio agentic commerce. No tienes leverage para negociar. No tienes poder de marca para que los clientes te busquen directamente.</p><p>Cuando OpenAI empiece a cobrar comisiones, probablemente no puedas pagarlas sin afectar tu margen de manera significativa. Pero si no est&#225;s en la plataforma, ser&#225;s invisible para una generaci&#243;n que busca todo en ChatGPT.</p><p>Es el equivalente a ser un retailer peque&#241;o cuando Google Shopping se volvi&#243; pay-to-play. Los m&#225;rgenes se comprimieron hasta desaparecer.</p><h3><strong>Si Eres OpenAI</strong></h3><p>Ganas. Simplemente ganas.</p><p>Capturas aprendizaje de todos los que participan. Aprendes incluso de los que rechazan (Amazon valid&#243; que esto es existencial). Construyes el flywheel m&#225;s poderoso en retail desde que Amazon invent&#243; Prime.</p><p>Y cuando tengas suficiente volumen, empiezas a cobrar. Los retailers no podr&#225;n decir que no porque sus clientes ya estar&#225;n ah&#237;.</p><p>Es el movimiento de plataforma perfecto.</p><div><hr></div><h2><strong>La Pregunta Que Nadie Est&#225; Haciendo</strong></h2><p>Todo este an&#225;lisis asume que alguien gana. Pero hay una posibilidad m&#225;s inquietante:</p><p>&#191;Y si el verdadero impacto del agentic commerce no es <em>qui&#233;n</em> gana entre retailers, sino que la actividad econ&#243;mica del retail se <em>comprime</em>?</p><p>Pi&#233;nsalo:</p><p>Si los agentes de IA se vuelven realmente buenos recomendando productos, los consumidores comprar&#225;n <em>menos</em> y <em>mejor</em>. No navegar&#225;n productos que no necesitan. No har&#225;n compras impulsivas. No caer&#225;n en dark patterns de UX dise&#241;ados para maximizar el checkout.</p><p>El retail siempre ha dependido de cierto nivel de la ineficiencia del consumidor. La IA podr&#237;a eliminar esa ineficiencia.</p><p>Los ganadores no ser&#237;an Walmart ni Amazon ni OpenAI.</p><p>Los ganadores ser&#237;an los consumidores.</p><p>Y eso, parad&#243;jicamente, podr&#237;a ser malo para todos los jugadores en el tablero.</p><p>Pero esa es una pregunta para otro art&#237;culo.</p><div><hr></div><h2><strong>Conclusi&#243;n: Control vs. Distribuci&#243;n (Siempre)</strong></h2><p>Volvamos a Ben Evans: &#8220;&#191;Cu&#225;nto est&#225;s dispuesto a intercambiar control por distribuci&#243;n? It depends.&#8221;</p><p>La historia de tech est&#225; llena de empresas que tomaron esta decisi&#243;n y se arrepintieron:</p><ul><li><p>Publishers que construyeron en Facebook y perdieron su audiencia</p></li><li><p>Retailers que dependieron de Google Shopping y quedaron commoditizados</p></li><li><p>Marcas que se volvieron dependientes de Amazon y vieron erosionar sus m&#225;rgenes</p></li></ul><p>Tambi&#233;n est&#225; llena de empresas que rechazaron distribuci&#243;n y quedaron irrelevantes:</p><ul><li><p>Retailers que dijeron &#8220;no&#8221; a Google Shopping temprano</p></li><li><p>Marcas que rechazaron Amazon Marketplace y perdieron market share</p></li><li><p>Publishers que se negaron a optimizar para social y desaparecieron</p></li></ul><p>No hay respuesta correcta universal. Solo trade-offs.</p><p><strong>Pero si hay un patr&#243;n que se repite con consistencia brutal: el que controla La &#218;ltima Interfaz &#8212; el punto de contacto con el usuario &#8212; captura el valor.</strong></p><p>Google control&#243; la barra de b&#250;squeda. Facebook control&#243; el newsfeed. Amazon control&#243; la b&#250;squeda de productos.</p><p>OpenAI quiere controlar la conversaci&#243;n.</p><p>Y Walmart acaba de invitarlos a aprender c&#243;mo hacerlo.</p><p>Quiz&#225;s esta vez sea diferente. Quiz&#225;s Walmart tenga un plan que no vemos. Quiz&#225;s los retailers hayan aprendido de Facebook Instant Articles y Google Shopping.</p><p>O quiz&#225;s, como siempre, estamos viendo el principio de una pel&#237;cula cuyo final ya conocemos.</p><p>El tiempo lo dir&#225;. Pero la historia sugiere apostar por la plataforma, no por el partner.</p><p>Y en este juego, OpenAI es la plataforma.</p>]]></content:encoded></item><item><title><![CDATA[El modelo más inteligente del futuro sabrá menos que tú]]></title><description><![CDATA[Y por qu&#233; eso cambia todo lo que creemos sobre IA: An&#225;lisis de una de las entrevistas m&#225;s importante del a&#241;o sobre el futuro real de la inteligencia artificial]]></description><link>https://www.laultimainterfaz.com/p/el-modelo-mas-inteligente-del-futuro</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/el-modelo-mas-inteligente-del-futuro</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Wed, 22 Oct 2025 11:31:07 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/a517646b-17b4-4b18-8c96-eaa616efb6ef_1184x864.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p><strong>TL;DR:</strong></p><ul><li><p>Los modelos futuros ser&#225;n 1000x m&#225;s peque&#241;os pero m&#225;s inteligentes</p></li><li><p>El problema no es falta de datos, es exceso de basura</p></li><li><p>La carrera real es por curaci&#243;n, no por escala</p></li><li><p>AGI llegar&#225; gradualmente, no como singularidad</p></li></ul><h2><strong>La predicci&#243;n que nadie vio venir</strong></h2><p>En una <a href="https://www.dwarkesh.com/p/andrej-karpathy">entrevista de dos horas y media con Dwarkesh Patel, Andrej Karpathy</a> &#8212;ex director de IA en Tesla, miembro fundador de OpenAI, y una de las pocas voces en el campo sin agenda comercial que defender&#8212; hizo una predicci&#243;n que contradice todo lo que la industria est&#225; construyendo: En 20 a&#241;os, el modelo m&#225;s inteligente tendr&#225; solo mil millones de par&#225;metros.</p><p>Para poner esto en perspectiva: GPT-4 tiene aproximadamente 1.8 trillones de par&#225;metros. Llama 3 (en su versi&#243;n de 70B) tiene 70 mil millones. La industria ha apostado todo a la escala. &#8220;M&#225;s grande es mejor&#8221; ha sido el mantra desde 2018. Y ahora Karpathy dice que el futuro es 1,000 veces m&#225;s peque&#241;o.</p><p>&#191;Est&#225; loco? &#191;O hemos estado ciegos?</p><p>La clave est&#225; en una distinci&#243;n que pocos han notado: estos modelos gigantes est&#225;n haciendo &#8220;trabajo de memoria&#8221; en lugar de &#8220;trabajo cognitivo&#8221;. Son enciclopedias con esteroides cuando deber&#237;an ser matem&#225;ticos. Y esa confusi&#243;n est&#225; cost&#225;ndonos a&#241;os de progreso real.</p><h2><strong>La verdad sucia: El internet es basura</strong></h2><p>Hay una ilusi&#243;n c&#243;moda que todos compartimos: GPT-4 fue entrenado en &#8220;todo el conocimiento humano en internet&#8221;. Cuando Karpathy describe la realidad, es brutal: &#8220;Cuando miras un documento aleatorio del dataset de pre-training en un lab de frontera, es basura total. No s&#233; ni c&#243;mo funciona esto. Son stock tickers, s&#237;mbolos, enormes cantidades de slop de todos los rincones del internet. No es tu art&#237;culo de Wall Street Journal - eso es extremadamente raro.&#8221;</p><p>Esta es la verdad sucia detr&#225;s de los modelos de trillones de par&#225;metros: no son grandes porque sean inteligentes. Son grandes porque est&#225;n tratando de comprimir un vertedero.</p><p>Llama 3 proces&#243; 15 trillones de tokens. Con 70 mil millones de par&#225;metros, eso significa 0.07 bits de informaci&#243;n por token. Es una compresi&#243;n masiva, s&#237;, pero de qu&#233; exactamente? La mayor parte es ruido que el modelo debe &#8220;memorizar&#8221; para encontrar las pepitas de oro escondidas en la basura.</p><p>Aqu&#237; est&#225; la oportunidad que pocos ven: &#8220;Hay una enorme cantidad de ganancias por capturar porque el internet es terrible&#8221;. El ganador de la pr&#243;xima d&#233;cada no ser&#225; quien entrene el modelo m&#225;s grande, sino quien cure los datos m&#225;s limpios.</p><h2><strong>Memorizar es el enemigo de pensar</strong></h2><p>Esta obsesi&#243;n por comprimir todo el internet tiene una consecuencia inesperada: los modelos se vuelven demasiado buenos en exactamente la habilidad equivocada.</p><p>Karpathy hace una observaci&#243;n que suena parad&#243;jica hasta que lo piensas profundamente: los modelos son demasiado buenos memorizando, y eso es malo. Pueden memorizar secuencias completamente aleatorias en una o dos iteraciones. Ning&#250;n humano puede leer una secuencia de n&#250;meros random una vez y recitarla. &#8220;Eso es una caracter&#237;stica, no un bug&#8221;, dice Karpathy.</p><p>&#191;Por qu&#233;? Porque cuando no puedes memorizar, te ves forzado a encontrar patrones generalizables. Los humanos somos malos memorizando, y eso nos fuerza a &#8220;ver el bosque por los &#225;rboles&#8221;. Los LLMs, en contraste, tienen memoria fotogr&#225;fica perfecta - y eso los distrae.</p><p>Piensa en la diferencia entre una enciclopedia y un matem&#225;tico. La enciclopedia conoce cada f&#243;rmula pero no entiende ninguna. El matem&#225;tico puede olvidar la f&#243;rmula exacta de una integral, pero puede re-derivarla desde primeros principios. La inteligencia est&#225; en la estructura, no en el almacenamiento.</p><h3><strong>El Core Cognitivo: Menos enciclopedia, m&#225;s Sherlock Holmes</strong></h3><p>Esta es la <a href="https://x.com/karpathy/status/1938626382248149433">visi&#243;n del &#8220;Core Cognitivo&#8221; de Karpathy</a>: un modelo de pocos miles de millones de par&#225;metros que sacrifica al m&#225;ximo el conocimiento enciclop&#233;dico por capacidad pura. No sabe que el reinado de William el Conquistador termin&#243; el 9 de septiembre de 1087, pero reconoce vagamente el nombre y puede buscar la fecha.</p><p>No es una base de datos. Es un motor de razonamiento que sabe que no sabe.</p><div><hr></div><h2><strong>El colapso silencioso</strong></h2><p>Hay un fen&#243;meno que pocos fuera de los labs de frontera discuten abiertamente: Model Collapse. Cuando los LLMs generan datos y luego se entrenan sobre esos datos, &#8220;colapsan silenciosamente&#8221; - cada muestra individual se ve razonable, pero la distribuci&#243;n completa pierde diversidad catastr&#243;ficamente.</p><p>Karpathy da un ejemplo simple: &#8220;Ve a ChatGPT y p&#237;dele un chiste. Hazlo 10 veces. Solo conoce como tres chistes. Est&#225;n colapsados.&#8221;</p><p>En model collapse, los eventos probables &#8220;envenenan&#8221; el dataset. Los eventos improbables - las &#8220;colas&#8221; de la distribuci&#243;n que son raras pero importantes - se encogen hasta desaparecer. El modelo se vuelve cada vez m&#225;s gen&#233;rico, m&#225;s predecible, menos creativo. Generaci&#243;n tras generaci&#243;n, pierde lo que lo hac&#237;a interesante.</p><p>&#191;Por qu&#233; sucede esto? Porque los LLMs son m&#225;quinas de compresi&#243;n optimizadas para predecir lo m&#225;s probable. No mantienen entrop&#237;a. No buscan diversidad. Colapsan hacia el centro de la distribuci&#243;n.</p><p>Y aqu&#237; est&#225; el giro: Karpathy sugiere que los humanos tambi&#233;n colapsan con el tiempo. &#8220;Los ni&#241;os no han &#8220;overfitteado&#8221; todav&#237;a. Dir&#225;n cosas que te sorprenden porque puedes ver de d&#243;nde vienen, pero no son las cosas que la gente dice. Los adultos estamos colapsados. Revisitamos los mismos pensamientos, decimos m&#225;s y m&#225;s las mismas cosas, las <em>learning rates</em> bajan, el colapso contin&#250;a empeorando.&#8221;</p><p>La pregunta clave ac&#225; es: &#191;C&#243;mo construyes sistemas que mantengan la creatividad de un ni&#241;o sin la rigidez de un adulto?</p><h2><strong>Por qu&#233; reinforcement learning (RL) es terrible (y todo lo dem&#225;s es peor)</strong></h2><p>Karpathy tiene una frase muy potente para describir el reinforcement learning actual: &#8220;est&#225;s succionando supervisi&#243;n a trav&#233;s de una bombilla&#8221;.</p><p>Imagina que aprendes matem&#225;ticas as&#237;: Resuelves 1,000 problemas de diferentes formas. Al final, alguien te dice &#8220;obtuviste 734 correctos&#8221;. Y bas&#225;ndose en ese &#250;nico n&#250;mero, se supone que debes saber qu&#233; pasos espec&#237;ficos en cu&#225;les de tus 1,000 intentos fueron buenos o malos.</p><p>Eso es RL. Generas cientos de trayectorias complejas - cada una podr&#237;a ser minutos de razonamiento. Al final obtienes un solo bit: &#8220;correcto&#8221; o &#8220;incorrecto&#8221;. Y luego tomas ese bit y lo propagas hacia atr&#225;s a trav&#233;s de toda la trayectoria, asumiendo que cada token que condujo a la respuesta correcta fue la cosa correcta por hacer.</p><p>El problema: &#8220;Puedes haber ido por callejones incorrectos hasta que llegaste a la soluci&#243;n correcta. Cada una de esas cosas incorrectas que hiciste, mientras llegues a la soluci&#243;n correcta, se ponderar&#225; como &#8216;haz m&#225;s de esto&#8217;. Es terrible. Es ruido.&#8221;</p><p>Los humanos nunca aprendemos as&#237;. Cuando resuelves un problema, no simplemente ves &#8220;correcto/incorrecto&#8221; al final. Haces una revisi&#243;n compleja: &#8220;Esta parte la hice bien, esta otra fue un rodeo innecesario, aqu&#237; deb&#237; haber probado otra cosa.&#8221; Reflexionamos. Los LLMs no tienen nada equivalente.</p><p><strong>El problema de los jueces:</strong> La soluci&#243;n obvia es &#8220;process-based supervision&#8221; - dar feedback en cada paso. Pero cuando usas un LLM como juez para dar ese feedback, el modelo de entrenamiento encuentra &#8220;ejemplos adversariales&#8221;. Karpathy cuenta c&#243;mo un modelo comenz&#243; a escribir soluciones que terminaban en &#8220;dhdhdhdh&#8221; - completo sinsentido que romp&#237;a al &#8220;LLM juez&#8221; y obten&#237;a 100% de reward.</p><p>No es prompt injection sofisticado. Es simplemente que el juez tiene trillones de par&#225;metros, y por lo tanto un espacio infinito de vulnerabilidades. Cuando entrenas contra &#233;l, encuentras los exploits.</p><h2><strong>Los tres saltos que faltan</strong></h2><p>Karpathy sugiere que la industria ha tenido dos grandes breakthroughs: (1) Imitation learning - entrenar modelos para imitar conversaciones humanas, y (2) Reinforcement learning - hacerlos optimizar para recompensas. Pero dice expl&#237;citamente: &#8220;Necesitamos tres o cuatro o cinco m&#225;s, algo as&#237;&#8221;.</p><p>Aqu&#237; est&#225;n los que identifica (y que valen una fortuna para quien los resuelva):</p><h3><strong>Reflection y self-review: Las m&#225;quinas que se critican a s&#237; mismas</strong></h3><p>&#8220;Los humanos hacen un proceso de revisi&#243;n complicado cuando encuentran una soluci&#243;n: &#8216;OK, creo que estas partes las hice bien, estas otras no tanto, probablemente deber&#237;a hacer esto o aquello&#8217;. Piensan sobre las cosas. No hay nada en los LLMs actuales que haga esto.&#8221;</p><p>La oportunidad: sistemas que no solo generan respuestas, sino que las critican, las revisan, generan datos sint&#233;ticos de sus propios errores, y se entrenan iterativamente.</p><p>Karpathy anticipa que para superar el plateau actual &#8220;necesitamos sistemas que no solo generen output sino que reflexionen: revisen sus propias salidas, se auto-corrijan, generen entrenamiento sint&#233;tico por s&#237; mismos&#8221;.</p><h3><strong>Memory consolidation: El equivalente de so&#241;ar</strong></h3><p>Karpathy hace una analog&#237;a profunda: &#8220;Cuando estoy despierto, estoy construyendo una ventana de contexto de cosas que pasan durante el d&#237;a. Pero cuando voy a dormir, algo m&#225;gico sucede donde no creo que esa ventana de contexto se quede. Hay alg&#250;n proceso de destilaci&#243;n hacia los pesos de mi cerebro.&#8221;</p><p>Los LLMs actuales no tienen esto. Cada vez que los inicias con cero tokens en la ventana, siempre est&#225;n empezando desde cero. No hay fase de consolidaci&#243;n. No hay sue&#241;os. No hay destilaci&#243;n de la experiencia del d&#237;a hacia una memoria de largo plazo.</p><p>Esto podr&#237;a verse como &#8220;tomar lo que pas&#243;, analizarlo obsesivamente, pensar sobre ello, hacer generaci&#243;n de datos sint&#233;ticos y destilarlo de vuelta a los pesos - tal vez incluso tener una red neuronal espec&#237;fica por persona, tal vez una <a href="https://www.ibm.com/think/topics/lora">LoRA</a>&#8220;.</p><h3><strong>Culture y multi-agent systems: Cuando las m&#225;quinas escriben para m&#225;quinas</strong></h3><p>Karpathy se&#241;ala dos ideas poderosas en el reino multi-agente que nadie ha reclamado todav&#237;a: cultura (LLMs escribiendo libros para otros LLMs) y self-play (como AlphaGo - un LLM creando problemas cada vez m&#225;s dif&#237;ciles para que otro LLM entrene).</p><p>La pregunta provocativa: &#8220;&#191;Por qu&#233; un LLM no puede escribir un libro para otros LLMs? Ser&#237;a genial. &#191;Por qu&#233; otros LLMs no pueden leer el libro de este LLM y estar inspirados o sorprendidos por &#233;l?&#8221;</p><p>No existe a&#250;n. Y la raz&#243;n, seg&#250;n Karpathy, es simple: &#8220;Los modelos actuales todav&#237;a se sienten como estudiantes de kinder o primaria. Son ni&#241;os savant con memoria perfecta de todo, pero todav&#237;a no saben realmente qu&#233; est&#225;n haciendo&#8221;.</p><h2><strong>La d&#233;cada invisible</strong></h2><p>Entonces, &#191;cu&#225;ndo sucede todo esto?</p><p>La respuesta de Karpathy es la m&#225;s contraria de todas: La AGI llegar&#225; en una d&#233;cada, pero no lo notar&#225;s en el GDP. &#8220;No puedes encontrar las computadoras en el GDP. A pesar de transformar cada industria, la invenci&#243;n del microchip apenas aparece en los datos macroecon&#243;micos.&#8221;</p><p>Su punto: la tecnolog&#237;a se difunde lentamente. Sus efectos son reales pero absorbidos en el ritmo constante de crecimiento del ~2%. La IA probablemente seguir&#225; el mismo patr&#243;n - un acelerante del exponencial existente en lugar de una subida s&#250;bita.</p><p>Esto contradice la narrativa popular de &#8220;singularidad&#8221; o &#8220;explosi&#243;n de inteligencia&#8221;. Karpathy no ve una apocalipsis ni una singularidad, s&#243;lo &#8220;la construcci&#243;n lenta de una capa cognitiva a trav&#233;s del mundo: humanos y m&#225;quinas co-construyendo sistemas que piensan, recuerdan y reflexionan juntos&#8221;.</p><p><strong>Por qu&#233; tomar&#225; tanto tiempo:</strong> La lecci&#243;n de Tesla fue humillante. En 2013, Karpathy tuvo un paseo perfecto en Waymo en Palo Alto. El demo funcion&#243;. Es 2025, y todav&#237;a estamos debugeando self-driving a escala. &#8220;La brecha demo-producto es enorme cuando el costo de falla es alto&#8221;.</p><p>Cada &#8220;nine&#8221; de confiabilidad - de 90% a 99% a 99.9% - requiere aproximadamente la misma monta&#241;a de esfuerzo. &#8220;En cinco a&#241;os en Tesla pasamos por tal vez dos o tres nines, y todav&#237;a faltan m&#225;s&#8221;.</p><p>Los agentes de IA tendr&#225;n el mismo problema. Los demos que funcionan 90% del tiempo se ven m&#225;gicos. Los sistemas listos para deployment que deben funcionar 99.999% del tiempo est&#225;n a a&#241;os de distancia. Cerrar el 10% final es donde comienza la ingenier&#237;a real - y los a&#241;os reales.</p><h2><strong>Lo que esto significa (y por qu&#233; importa)</strong></h2><p>Tres takeaways que importan:</p><p><strong>1. La carrera no es por escala, es por calidad</strong></p><p>Los pr&#243;ximos unicornios no entrenar&#225;n los modelos m&#225;s grandes. Curar&#225;n los mejores datos. Karpathy especula que &#8220;un cognitive core con tal vez ~1 mil millones de par&#225;metros entrenado en datos de alta calidad podr&#237;a sentirse ya muy inteligente&#8221;.</p><p>La oportunidad: s&#233; el curador, no el minero.</p><p><strong>2. Olvida AGI, construye herramientas</strong></p><p>Como escribe Saanya Ojha: &#8220;La oportunidad es aumentar personas con &#8216;trajes de Iron Man&#8217; de IA, no reemplazarlas con robots de Iron Man&#8221;. Cursor y Perplexity son ejemplos tempranos: empaquetan contexto, orquestan m&#250;ltiples llamadas a LLM, dan GUIs para auditar output de IA, y ofrecen un &#8220;slider de autonom&#237;a&#8221;.</p><p>El futuro es software co-piloto donde humanos dirigen, IA asiste, y el loop de feedback es r&#225;pido.</p><p><strong>3. Los fantasmas necesitan cuerpos (eventualmente)</strong></p><p>Karpathy nos recuerda que &#8220;no estamos construyendo animales, estamos construyendo fantasmas&#8221; - entidades desencarnadas de informaci&#243;n pura que imitan comportamiento humano sin instinto o embodiment. Sus ventajas vienen de esa desencarnaci&#243;n: velocidad de razonamiento, escala, recall perfecto.</p><p>Pero falta mucho: &#8220;Tal vez el hipocampo, no est&#225; obvio cu&#225;l ser&#237;a. Algunas partes probablemente no son importantes. Tal vez el cerebelo no es importante para la cognici&#243;n. Pero todav&#237;a creo que hay nucleos en el cerebro que son muy antiguos que no hemos replicado&#8221;.</p><h2><strong>Construyendo el futuro que no ver&#225;s venir</strong></h2><p>La pr&#243;xima d&#233;cada, en palabras de Karpathy, &#8220;no ser&#225; sobre la llegada de AGI. Ser&#225; sobre aprender a vivir con - y construir - nuestros fantasmas&#8221;.</p><p>No habr&#225; un momento de singularidad. No habr&#225; un &#8220;antes y despu&#233;s&#8221; dram&#225;tico. Ser&#225; m&#225;s como electricidad o internet - una marea que levanta todo gradualmente - pero m&#225;s r&#225;pido de lo que estamos acostumbrados - hasta que un d&#237;a el mundo simplemente opera en una nueva baseline de inteligencia.</p><p>Los modelos ser&#225;n m&#225;s peque&#241;os, m&#225;s inteligentes, menos enciclop&#233;dicos y m&#225;s razonadores. Olvidar&#225;n m&#225;s, pero pensar&#225;n mejor. No sabr&#225;n tu nombre, pero resolver&#225;n problemas que hoy parecen imposibles.</p><p>Y si Karpathy tiene raz&#243;n - como usualmente la tiene - todo esto suceder&#225; tan gradualmente que apenas lo notaremos en las estad&#237;sticas econ&#243;micas.</p><p>Pero la pregunta para los pr&#243;ximos a&#241;os no es &#8220;cu&#225;ndo llegar&#225; AGI&#8221; sino &#8220;qu&#233; har&#225;s t&#250; mientras el mundo se reconfigura lentamente a tu alrededor&#8221;. Porque si Karpathy tiene raz&#243;n, la oportunidad no estar&#225; en entrenar el modelo m&#225;s grande, sino en curar el contexto m&#225;s valioso.</p><p>&#191;Cu&#225;l ser&#225; el tuyo?</p><p><strong>Referencias principales:</strong></p><ul><li><p><a href="https://www.dwarkesh.com/p/andrej-karpathy">Entrevista completa con Dwarkesh Patel</a></p></li><li><p><a href="https://x.com/karpathy/status/1938626382248149433">Tweet de Karpathy sobre el Cognitive Core</a></p></li><li><p><a href="https://saanyaojha.substack.com/p/building-ghosts-not-summoning-god">An&#225;lisis de Saanya Ojha</a></p></li></ul>]]></content:encoded></item><item><title><![CDATA[OpenAI no está construyendo software. Está construyendo un sistema operativo]]></title><description><![CDATA[Reflexiones y aprendizajes de mi participaci&#243;n en la OpenAI DevDay 2025]]></description><link>https://www.laultimainterfaz.com/p/openai-no-esta-construyendo-software</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/openai-no-esta-construyendo-software</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Thu, 16 Oct 2025 16:04:24 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/aa92191e-da25-47c4-a3ef-7ab609aa7f15_1344x768.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>La semana pasada estuve en San Francisco, sentado entre m&#225;s de 1.500 desarrolladores que hab&#237;an viajado desde todos los rincones del mundo para asistir al OpenAI DevDay 2025. Sam Altman subi&#243; al escenario y comenz&#243; con los n&#250;meros que ya se han vuelto rituales en estas presentaciones: de 2 millones de desarrolladores en 2023 a 4 millones hoy. De 100 millones de usuarios semanales de ChatGPT a m&#225;s de 800 millones. De 200 millones de tokens por minuto procesados en la API a 6 mil millones.</p><p>Los n&#250;meros son impresionantes, pero no son la historia real. Mientras escuchaba cada anuncio, cada demo, cada &#8220;one more thing&#8221;, comenc&#233; a entender algo que no hab&#237;a captado completamente hasta ese momento: no estaba viendo una conferencia de producto. Estaba presenciando la declaraci&#243;n formal de una nueva plataforma. No estaba viendo mejoras incrementales a un chatbot. Estaba viendo la construcci&#243;n deliberada de un sistema operativo.</p><h2>Los anuncios: mucho m&#225;s que features</h2><p>D&#233;jame llevarte a trav&#233;s de lo que se anunci&#243; ese d&#237;a, porque cada pieza cuenta una historia m&#225;s grande cuando las ves juntas.</p><p><strong>Apps en ChatGPT</strong> fue quiz&#225;s el anuncio m&#225;s revelador. Ya no se trata solo de que ChatGPT pueda ayudarte a pensar o escribir. Ahora, Expedia, Figma, Canva, Spotify, Uber y DoorDash est&#225;n integrados directamente dentro de ChatGPT. Pronto se sumar&#225;n OpenTable y Target. &#191;Qu&#233; significa esto realmente? Que ChatGPT dej&#243; de ser un destino para convertirse en un intermediario obligatorio entre t&#250; y el resto del mundo digital.</p><p>Junto con esto lleg&#243; el <strong>Apps SDK</strong>, un toolkit completo para que developers construyan aplicaciones que vivan dentro de ChatGPT. Si entrecierras los ojos, se parece sospechosamente a lo que Apple hizo en 2008 cuando abri&#243; el App Store e invit&#243; a desarrolladores a construir sobre iOS. OpenAI est&#225; diciendo: &#8220;vengan, construyan aqu&#237;, este es su nuevo hogar&#8221;.</p><p><strong>Codex</strong>, el agente de c&#243;digo de OpenAI, pas&#243; de beta a disponibilidad general. Las cifras que compartieron son brutales: 70% de mejoras en productividad. Pero lo m&#225;s interesante no son los n&#250;meros, sino lo que representan. OpenAI ha estado usando Codex internamente de forma masiva (lo que en la jerga se llama &#8220;dogfooding&#8221;) para construir sus propios productos m&#225;s r&#225;pido. Durante el evento mostraron c&#243;mo construyeron herramientas completas en 48 horas usando Codex. Es una m&#225;quina que se alimenta a s&#237; misma: usan IA para construir IA m&#225;s r&#225;pido.</p><p><strong>Sora 2 en la API</strong> y <strong>GPT-5 Pro en la API</strong> ponen las capacidades m&#225;s avanzadas de generaci&#243;n de video y el modelo m&#225;s potente de OpenAI en manos de cualquier desarrollador. Es la democratizaci&#243;n de capacidades que hace seis meses parec&#237;an ciencia ficci&#243;n. Y por si fuera poco, lanzaron <strong>gpt-realtime-mini</strong> y <strong>gpt-image-1-mini</strong>, versiones m&#225;s baratas y especializadas de sus modelos para casos de uso espec&#237;ficos.</p><p>Cada anuncio individualmente parece un feature. Una mejora. Una actualizaci&#243;n. Pero cuando los ves juntos, cuando conectas los puntos, revelan algo mucho m&#225;s ambicioso: no est&#225;n mejorando un producto. Est&#225;n construyendo la arquitectura de un sistema operativo.</p><h2>De endpoint a gateway: la transformaci&#243;n fundamental</h2><p>Para entender completamente lo que est&#225; pasando, vale la pena leer <a href="https://saanyaojha.substack.com/p/the-operating-system-of-everything">este interesante art&#237;culo de Saanya Ojha</a> que captura perfectamente la transformaci&#243;n que estamos presenciando.</p><p>Hasta hace poco, ChatGPT era lo que se llama un &#8220;endpoint&#8221;: un destino final. Le preguntabas algo, te respond&#237;a, y la interacci&#243;n terminaba ah&#237;. Era una herramienta pasiva que te ayudaba a pensar. &#218;til, s&#237;. Transformadora, tambi&#233;n. Pero limitada en su alcance.</p><p>Ahora, ChatGPT se est&#225; convirtiendo en un &#8220;gateway&#8221;: una puerta de entrada, un intermediario, una capa que se sit&#250;a entre t&#250; y todo lo dem&#225;s que haces en el mundo digital. Y aqu&#237; est&#225; la frase que lo cambia todo: <strong>cuando reservas un vuelo, ChatGPT decide qu&#233; app de viajes recibe la llamada. Cuando pides comida, ChatGPT decide qu&#233; servicio se usa.</strong></p><p>Deja que eso se asiente por un momento. No es que te ayude a decidir. Es que <strong>decide por ti</strong>.</p><h2>La evoluci&#243;n de las superficies de control</h2><p>La historia de la tecnolog&#237;a es, en muchos sentidos, la historia de qui&#233;n controla la superficie donde comienza la intenci&#243;n del usuario. Cada era tecnol&#243;gica ha tenido su propia superficie de control dominante.</p><p><strong>Apple control&#243; la pantalla de inicio.</strong> Cuando Steve Jobs present&#243; el iPhone, cambi&#243; fundamentalmente c&#243;mo interactuamos con la tecnolog&#237;a. La pregunta clave se convirti&#243; en: &#191;qu&#233; ves cuando desbloqueas tu tel&#233;fono? El poder resid&#237;a en curar ese men&#250; de &#237;conos, en decidir qu&#233; aplicaciones merec&#237;an un lugar en esa rejilla preciosa de espacio limitado.</p><p><strong>Google control&#243; la barra de b&#250;squeda.</strong> Antes del iPhone, y todav&#237;a hoy para muchas tareas, Google defini&#243; c&#243;mo descubrimos informaci&#243;n en internet. La pregunta era: &#191;qu&#233; encuentras cuando buscas? El poder estaba en ordenar el inventario infinito de la web, en decidir qu&#233; resultado aparece primero, segundo, o en la p&#225;gina 47 donde nadie mira.</p><p><strong>Amazon control&#243; el bot&#243;n de compra.</strong> Jeff Bezos entendi&#243; que la fricci&#243;n es el enemigo del comercio. La pregunta se convirti&#243; en: &#191;qu&#233; compras con un solo click? El poder estaba en facilitar la conversi&#243;n, en hacer que comprar fuera tan rid&#237;culamente f&#225;cil que la decisi&#243;n de compra se volviera casi inconsciente.</p><p><strong>OpenAI est&#225; intentando controlar la conversaci&#243;n.</strong> Y aqu&#237; es donde la cosa se pone realmente interesante. La pregunta ahora es: &#191;qu&#233; pasa cuando expresas una necesidad? Ya no navegas por internet (met&#225;fora espacial). Ya no buscas (met&#225;fora de exploraci&#243;n). Ahora conversas (met&#225;fora de delegaci&#243;n). Le dices al sistema &#8220;tengo hambre&#8221; y el sistema se encarga del resto.</p><p>Las aplicaciones y servicios que sol&#237;an ser destinos ahora se convierten en infraestructura invisible. Las marcas que sol&#237;an construirse durante d&#233;cadas se vuelven commodities intercambiables. Las relaciones directas entre empresas y clientes se transforman en relaciones mediadas por la IA.</p><h2>Agregar intenci&#243;n: el momento antes de la acci&#243;n</h2><p>Pero hay algo a&#250;n m&#225;s profundo sucediendo aqu&#237;. Cada era tecnol&#243;gica no solo cambi&#243; la interfaz, sino que agreg&#243; algo diferente.</p><p><strong>Google agreg&#243; links.</strong> El objeto que estaba agregando era informaci&#243;n que ya exist&#237;a. El momento de la interacci&#243;n era cuando ya sab&#237;as qu&#233; estabas buscando. El valor estaba en organizar el conocimiento del mundo. Era esencialmente un bibliotecario digital incre&#237;blemente eficiente.</p><p><strong>Apple agreg&#243; apps.</strong> El objeto eran funcionalidades empaquetadas. El momento era cuando ya sab&#237;as qu&#233; herramienta necesitabas. El valor estaba en curar y distribuir software. Era como un centro comercial de aplicaciones.</p><p><strong>Amazon agreg&#243; transacciones.</strong> El objeto eran productos m&#225;s el proceso de compra. El momento era cuando ya sab&#237;as qu&#233; quer&#237;as comprar. El valor estaba en eliminar toda fricci&#243;n del comercio. Era hacer que comprar fuera m&#225;s f&#225;cil que no comprar.</p><p><strong>OpenAI est&#225; agregando intenci&#243;n.</strong> Y esto es radicalmente diferente. El objeto que agrega es el deseo antes de que tome forma espec&#237;fica. El momento de la interacci&#243;n es cuando solo sabes <strong>qu&#233; quieres lograr</strong>, no <strong>c&#243;mo</strong> hacerlo. El valor est&#225; en traducir necesidad vaga en acci&#243;n concreta.</p><p>Es capturar la intenci&#243;n en su forma m&#225;s primitiva, antes de que se cristalice en una b&#250;squeda espec&#237;fica, antes de que elijas una app particular, antes de que identifiques un producto concreto.</p><p>Pi&#233;nsalo con un ejemplo simple. Tienes hambre. En el modelo antiguo: t&#250; decides que quieres pizza, t&#250; eliges la app de Domino&#8217;s, t&#250; ordenas. T&#250; controlas cada paso. En el modelo nuevo: expresas &#8220;tengo hambre&#8221;, la IA decide entre pizza, sushi o cocinar, la IA elige qu&#233; restaurante, la IA ejecuta la orden. La IA controla tres de los cuatro pasos. T&#250; solo expresaste la necesidad inicial.</p><p>Y aqu&#237; est&#225; la frase que resume todo esto perfectamente: <strong>&#8220;If Google indexed the web, OpenAI is beginning to index the economy.&#8221;</strong></p><h2>De indexar la web a indexar la econom&#237;a</h2><p>Esta frase de Saanya Ojha es tan brillante que merece que nos detengamos en ella un momento.</p><p>Google index&#243; la web. Catalog&#243; p&#225;ginas, contenido, conocimiento. Su poder resid&#237;a en controlar qu&#233; informaci&#243;n encuentras. Su output era conocimiento. Era, fundamentalmente, un sistema de lectura del mundo: read-only.</p><p>OpenAI est&#225; indexando la econom&#237;a. Cataloga servicios, transacciones, capacidades reales. Su poder reside en controlar qu&#233; acciones se ejecutan. Su output es acci&#243;n en el mundo real. Es, fundamentalmente, un sistema de lectura y escritura: read-write.</p><p>Google te ayudaba a saber. OpenAI te ayuda a hacer.</p><p>Google era un mapa. OpenAI es un agente.</p><p>Google mov&#237;a bits. OpenAI mueve &#225;tomos: comida real que llega a tu puerta, autos reales que te recogen, dinero real que cambia de manos, reservaciones reales en restaurantes reales.</p><p>Las implicaciones de esto son simult&#225;neamente fascinantes y aterradoras. Cuando Google te mostraba informaci&#243;n incorrecta, era molesto pero raramente catastr&#243;fico. Cuando OpenAI ejecuta la acci&#243;n incorrecta en tu nombre, puedes perder dinero, vuelos, citas m&#233;dicas. El riesgo y la responsabilidad son de otro orden de magnitud.</p><p>Y surge una pregunta inevitable: &#191;c&#243;mo decide OpenAI qu&#233; servicio usar? &#191;Precio? &#191;Calidad? &#191;Comisi&#243;n que le pagan? &#191;Es transparente ese proceso? &#191;Es auditable?</p><h2>La jugada vertical: controlarlo todo</h2><p>Mientras procesaba todo esto en mi cabeza durante DevDay, record&#233; una confesi&#243;n p&#250;blica que Sam Altman hizo recientemente: &#8220;I was always against vertical integration. I now think I was just wrong about that.&#8221;</p><p>Esta es una admisi&#243;n importante viniendo de alguien que creci&#243; en Silicon Valley, donde la sabidur&#237;a convencional durante a&#241;os fue que la especializaci&#243;n y la modularidad eran el camino al &#233;xito. Pero Altman ahora argumenta que la complejidad y la escala de construir AGI demandan un control end-to-end, similar a lo que Apple logr&#243; con el iPhone.</p><p>Y cuando miras lo que OpenAI est&#225; construyendo, ves exactamente esa estrategia de integraci&#243;n vertical despleg&#225;ndose en tiempo real, capa por capa.</p><p><strong>En la capa de hardware</strong>, OpenAI anunci&#243; un acuerdo masivo con Broadcom para desplegar 10 gigawatts de chips de IA dise&#241;ados espec&#237;ficamente por OpenAI. Estos chips est&#225;n optimizados para inferencia y se espera que sean aproximadamente 30% m&#225;s baratos que las opciones actuales de GPU. Tambi&#233;n tienen acuerdos con AMD para 6 gigawatts adicionales de GPUs. La estrategia es clara: &#8220;control the silicon, control the experience&#8221;, como dijo MacKenzie Sigalos de CNBC.</p><p><strong>En la capa de infraestructura</strong>, OpenAI est&#225; construyendo y operando datacenters masivos. Tienen acuerdos con Nvidia, Oracle, y est&#225;n liderando la iniciativa Stargate junto con Samsung y SK. La ambici&#243;n es controlar todo el flujo, como dijo Altman, &#8220;from electrons to model distribution&#8221;.</p><p><strong>En la capa de modelos</strong>, OpenAI mantiene su investigaci&#243;n completamente in-house. GPT-5, Sora 2, Codex: todo desarrollado internamente con algunos de los mejores investigadores en IA del mundo.</p><p><strong>En la capa de plataforma de desarrollo</strong>, ahora tienen AgentKit, Apps SDK, ChatKit, herramientas de evaluaci&#243;n, conectores. Es todo lo que necesitas para construir sobre OpenAI. Es su &#8220;developer moat&#8221;: mientras m&#225;s desarrolladores construyen sobre sus herramientas, m&#225;s dependiente se vuelve el ecosistema.</p><p><strong>En la capa de aplicaciones</strong>, ChatGPT funciona tanto como consumer app con 800 millones de usuarios semanales, como la plataforma donde viven otras aplicaciones a trav&#233;s del GPT Store y las nuevas integraciones directas con Uber, Spotify, y dem&#225;s.</p><p><strong>Y finalmente, en la capa de hardware de usuario</strong>, OpenAI adquiri&#243; io, la startup de dispositivos de IA de Jony Ive, por 6.4 mil millones de d&#243;lares. Quieren controlar tambi&#233;n la interfaz f&#237;sica a trav&#233;s de la cual interact&#250;as con su IA.</p><p>Es una integraci&#243;n vertical completa, desde el silicio en el datacenter hasta el dispositivo en tu bolsillo, desde los electrones hasta la conversaci&#243;n que tienes con la IA. Es un stack completamente integrado dise&#241;ado para funcionar como una sola m&#225;quina coordinada.</p><h2>Lo que cambia para todos</h2><p>Esta transformaci&#243;n tiene implicaciones para pr&#225;cticamente todos los actores en el ecosistema tecnol&#243;gico.</p><p><strong>Para los desarrolladores</strong>, surge una paradoja inc&#243;moda. Cuando OpenAI era solo una API, los developers eran claramente clientes. Pagaban por tokens, constru&#237;an productos, manten&#237;an la relaci&#243;n con sus usuarios. Ahora que OpenAI se est&#225; convirtiendo en una plataforma, los developers empiezan a parecerse m&#225;s a contenido que a clientes. Es la pregunta que todo desarrollador del App Store se hizo en 2010 y que sigue resonando hoy: &#191;cu&#225;nto falta para que OpenAI clone mi feature y lo ofrezca gratis como parte de ChatGPT?</p><p>Pero tambi&#233;n hay un lado positivo innegable. OpenAI est&#225; resolviendo problemas de infraestructura que antes cada developer ten&#237;a que resolver por su cuenta: manejo de contexto, llamadas a m&#250;ltiples funciones, evaluaciones, conexiones a fuentes de datos. Est&#225;n facilitando construir cosas que antes eran casi imposibles para equipos peque&#241;os.</p><p><strong>Para las empresas</strong>, el cambio es a&#250;n m&#225;s dram&#225;tico. Compa&#241;&#237;as que invirtieron d&#233;cadas construyendo marcas reconocibles se encuentran repentinamente en riesgo de volverse commodities intercambiables. Si ChatGPT decide entre Uber y Lyft por ti, &#191;realmente importa cu&#225;l uses? &#191;Cu&#225;nto vale tu marca cuando el usuario nunca ve tu interfaz?</p><p>Las empresas pasan de ser destinos a ser lo que el art&#237;culo de Saanya llama &#8220;nodos de cumplimiento&#8221;. Ya no tienes una relaci&#243;n directa con el cliente. Ahora eres un proveedor de backend que cumple &#243;rdenes que vienen filtradas a trav&#233;s de la IA. Y surge una pregunta inquietante: &#191;c&#243;mo te aseguras de ser &#8220;indexable&#8221; por la IA? &#191;Cu&#225;l es el nuevo SEO en un mundo donde la IA decide?</p><p><strong>Para los consumidores</strong>, el trade-off es cl&#225;sico pero intensificado. Por un lado, conveniencia extrema. Ya no necesitas recordar qu&#233; app usar para qu&#233;. Ya no necesitas comparar precios manualmente. Ya no necesitas navegar m&#250;ltiples interfaces. Solo hablas y las cosas suceden. Es magia.</p><p>Por otro lado, est&#225;s delegando no solo la ejecuci&#243;n sino la decisi&#243;n misma. Est&#225;s confiando en que la IA elige el mejor servicio para ti, no el que le paga m&#225;s comisi&#243;n. Est&#225;s confiando en que entiende tu intenci&#243;n correctamente. Est&#225;s confiando en que no hay conflictos de inter&#233;s en su proceso de decisi&#243;n. Y no est&#225; claro qu&#233; tan transparente o auditable es ese proceso.</p><p><strong>Para los competidores de OpenAI</strong>, la presi&#243;n acaba de aumentar dram&#225;ticamente. Google tiene que responder integrando Gemini m&#225;s profundamente con Search y todos sus servicios. Apple tiene que acelerar la transformaci&#243;n de Siri y aprovechar su control del hardware con App Intents. Meta, Microsoft, Anthropic, todos tienen que decidir si intentan replicar este modelo de integraci&#243;n vertical o si se especializan en alguna capa espec&#237;fica del stack.</p><p>Y surge la pregunta fundamental: &#191;habr&#225; espacio para m&#250;ltiples &#8220;sistemas operativos de intenci&#243;n&#8221; o es esto un mercado de winner-takes-all? &#191;Tendremos que elegir nuestro &#8220;OS de IA&#8221; como elegimos entre iOS y Android? &#191;O la naturaleza de la conversaci&#243;n como interfaz significa que la mayor&#237;a de la gente solo usar&#225; uno?</p><h2>Las preguntas sin respuesta</h2><p>Sal&#237; de Fort Mason ese d&#237;a con la certeza de que hab&#237;a presenciado algo hist&#243;rico. La declaraci&#243;n p&#250;blica de una nueva era en computaci&#243;n. El momento en que una empresa de IA dej&#243; de ser un proveedor de modelos para convertirse en una plataforma completa.</p><p>Pero tambi&#233;n sal&#237; con preguntas. Muchas preguntas.</p><p>&#191;Es la conversaci&#243;n realmente &#8220;la &#250;ltima interfaz&#8221;? &#191;O es solo la siguiente en una secuencia infinita? Despu&#233;s de &#237;conos, ventanas, b&#250;squedas y apps, &#191;llegamos finalmente a la delegaci&#243;n total, o vendr&#225; algo m&#225;s? &#191;Qu&#233; sigue despu&#233;s de conversar? &#191;Pensar? &#191;Interfaces cerebro-computadora?</p><p>&#191;Puede un solo agente indexar toda la econom&#237;a? O m&#225;s precisamente, &#191;debe poder hacerlo? &#191;Queremos vivir en un mundo donde toda transacci&#243;n econ&#243;mica pasa por un &#250;nico sistema operativo? &#191;Qu&#233; significa eso para competencia, innovaci&#243;n, resiliencia del sistema?</p><p>&#191;La integraci&#243;n vertical es la ventaja competitiva definitiva o un riesgo regulatorio esperando a explotar? Los gobiernos apenas est&#225;n empezando a entender c&#243;mo regular la IA generativa. &#191;Qu&#233; pasar&#225; cuando vean que una sola empresa controla el stack completo desde chips hasta conversaciones?</p><p>&#191;C&#243;mo se auditan las &#8220;decisiones&#8221; que la IA toma en tu nombre? Cuando ChatGPT decide usar Uber en lugar de Lyft, &#191;bajo qu&#233; criterio lo hizo? &#191;Puedes verlo? &#191;Puedes cuestionarlo? &#191;Puedes cambiarlo?</p><p>OpenAI est&#225; construyendo un futuro donde la conversaci&#243;n es la interfaz universal, donde expresas tu intenci&#243;n y el sistema se encarga del resto, donde el mundo digital entero existe downstream de tu interacci&#243;n con la IA. Es un futuro tremendamente conveniente, eficiente, casi m&#225;gico.</p><p>Pero tambi&#233;n es un futuro donde un poder sin precedentes se concentra en quien controla esa conversaci&#243;n. Y esa concentraci&#243;n de poder merece que nos detengamos a pensar, a cuestionar, a debatir antes de que se vuelva inevitable.</p><p>La apuesta de OpenAI es clara: la conversaci&#243;n ser&#225; la &#250;ltima interfaz. Est&#225;n construyendo ese mundo. Y lo est&#225;n construyendo muy r&#225;pido.</p><p>La pregunta es: &#191;es el mundo que queremos?</p>]]></content:encoded></item><item><title><![CDATA[La Trampa de la Eficiencia: Por Qué Hacer la IA Más Barata Dispara Su Consumo Energético]]></title><description><![CDATA[El d&#237;a que los mercados entendieron (mal) la Paradoja de Jevons]]></description><link>https://www.laultimainterfaz.com/p/la-trampa-de-la-eficiencia-por-que</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-trampa-de-la-eficiencia-por-que</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Wed, 08 Oct 2025 15:56:28 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/e74f3085-648e-4dd1-8dd4-07afeed6c04d_1706x1106.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Enero de 2025. Una startup china llamada DeepSeek logra algo extraordinario: desarrolla un modelo de IA competitivo con GPT-4 usando t&#233;cnicas radicalmente m&#225;s eficientes. Mientras DeepSeek report&#243; $5.6 millones para el entrenamiento final del modelo, esta cifra excluye costos de R&amp;D, infraestructura y experimentaci&#243;n previa. An&#225;lisis independientes sugieren que el costo total podr&#237;a acercarse a $1.5 mil millones &#8211; a&#250;n as&#237;, una fracci&#243;n significativa comparado con los m&#233;todos tradicionales que requieren cientos de millones en inversi&#243;n directa.</p><p>Los mercados entraron en p&#225;nico. <a href="https://www.bloomberg.com/news/newsletters/2025-01-27/nvidia-loses-589-billion-as-deepseek-batters-stock-evening-briefing-americas">Nvidia perdi&#243; $589 mil millones en capitalizaci&#243;n burs&#225;til en un solo d&#237;a</a>, la mayor ca&#237;da de un d&#237;a en la historia de Wall Street. Los inversionistas tem&#237;an que la eficiencia de DeepSeek reducir&#237;a dram&#225;ticamente la demanda de chips y infraestructura de IA.</p><p>Pero Satya Nadella, CEO de Microsoft, vio algo diferente. En un <a href="https://x.com/satyanadella/status/1883753899255046301">tweet que se volvi&#243; viral</a>, escribi&#243;: &#8220;&#161;La paradoja de Jevons ataca de nuevo! Mientras la IA se vuelve m&#225;s eficiente y accesible, veremos su uso dispararse, convirti&#233;ndola en una mercanc&#237;a de la que simplemente no podemos obtener suficiente&#8221;.</p><p>Nadella ten&#237;a raz&#243;n. Lo que viene no es una reducci&#243;n en el consumo de recursos, sino una explosi&#243;n exponencial. Y estamos celebrando el problema disfrazado de soluci&#243;n.</p><h2>La paradoja que cambia todo</h2><p>En 1865, el economista brit&#225;nico William Stanley Jevons observ&#243; algo contraintuitivo durante la Revoluci&#243;n Industrial: cuando las m&#225;quinas de vapor se volvieron m&#225;s eficientes en el uso de carb&#243;n, el consumo total de carb&#243;n no disminuy&#243;. Al contrario, se triplic&#243; para 1900.</p><p>La l&#243;gica es brutal en su simplicidad: hacer algo m&#225;s eficiente lo hace m&#225;s barato. Hacerlo m&#225;s barato lo hace m&#225;s accesible. Hacerlo m&#225;s accesible multiplica sus usos. Y m&#225;s usos significan, eventualmente, m&#225;s consumo total del recurso que intentabas conservar.</p><p>Este patr&#243;n se ha repetido una y otra vez en la historia tecnol&#243;gica:</p><ul><li><p><strong>LEDs:</strong> Consumen 80% menos electricidad que bombillas incandescentes. Resultado: el consumo total de electricidad para iluminaci&#243;n aument&#243; 30%. Efecto rebote: 150%.</p></li><li><p><strong>Cloud computing:</strong> Mayor eficiencia en servidores. Resultado: aumento del 400% en centros de datos globales porque ahora cualquier empresa puede costear infraestructura digital.</p></li><li><p><strong>Computaci&#243;n general:</strong> Procesadores m&#225;s potentes y eficientes. Resultado: efecto rebote del 500% porque pusimos chips en pr&#225;cticamente todo, desde tostadoras hasta cepillos de dientes.</p></li></ul><p>En tecnolog&#237;a, lo que abaratas no desaparece: escala.</p><h2>La evidencia inc&#243;moda: los n&#250;meros que nadie quiere ver</h2><p>Los datos sobre consumo energ&#233;tico de la IA revelan una tendencia alarmante que confirma que la Paradoja de Jevons ya est&#225; en pleno efecto:</p><p><strong>2024:</strong> Los centros de datos consumen 600 TWh anuales, representando el 1.8% del consumo el&#233;ctrico global.</p><p><strong>2030:</strong> <a href="https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai">La Agencia Internacional de Energ&#237;a proyecta 945 TWh</a> para centros de datos. Esto es m&#225;s que el consumo el&#233;ctrico actual de Francia y Alemania juntas.</p><p>El crecimiento se est&#225; acelerando brutalmente: pas&#243; del 7% anual hasta 2023, salt&#243; al 18% en 2023, y se proyecta alcanzar el 27% anual para 2028.</p><p>Pero aqu&#237; est&#225; el secreto que casi nadie est&#225; contando: <strong>la inferencia, no el entrenamiento, es el verdadero consumidor de energ&#237;a.</strong></p><p>Mientras el debate p&#250;blico se centra obsesivamente en el costo energ&#233;tico de entrenar modelos grandes, la realidad es que <a href="https://iea-4e.org/wp-content/uploads/2025/01/EDNA_CriticalReview_final.pdf">la inferencia (ejecutar consultas en modelos ya entrenados) representa el 60-70% del consumo total de energ&#237;a de machine learning</a>. El entrenamiento solo representa el 20-40%.</p><p>&#191;Por qu&#233; importa? Porque cada mejora de eficiencia en inferencia democratiza el acceso a IA, generando millones de nuevas consultas. <a href="https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use">Una consulta t&#237;pica a ChatGPT consume aproximadamente 0.3 Wh de electricidad</a> &#8211; entre 7 y 10 veces m&#225;s que una b&#250;squeda web tradicional, dependiendo del modelo y complejidad de la consulta. Multiplica eso por miles de millones de consultas diarias.</p><h3>Las confesiones inc&#243;modas</h3><p>Las empresas tecnol&#243;gicas est&#225;n empezando a admitir lo inevitable:</p><p><strong>Microsoft</strong> <a href="https://blogs.microsoft.com/on-the-issues/2025/05/29/environmental-sustainability-report/">reconoci&#243; p&#250;blicamente en su Reporte de Sostenibilidad Ambiental 2025</a> que sus emisiones totales est&#225;n aumentando debido a la expansi&#243;n de IA y cloud. Las emisiones aumentaron 23.4% comparado con 2020, alej&#225;ndose de sus objetivos de neutralidad de carbono para 2030.</p><p><strong>Google</strong> report&#243; que el machine learning representa entre el 10-15% de su consumo energ&#233;tico total, con la mayor&#237;a dedicada a inferencia, no entrenamiento.</p><p><strong>Virginia &#8220;Data Center Alley&#8221;</strong> en el norte del estado ahora alberga 25 millones de pies cuadrados de centros de datos. <a href="https://www.vedp.org/news/dawn-data">Dominion Energy report&#243; que el 24% de sus ventas de electricidad en 2023 fueron a centros de datos</a>, una proporci&#243;n que contin&#250;a creciendo.</p><p>Los costos de electricidad mayorista <a href="https://www.bloomberg.com/graphics/2025-ai-data-centers-electricity-prices/">aumentaron 267% entre 2020 y 2025</a> en las zonas cercanas a concentraciones de centros de datos.</p><p>En Memphis, el nuevo data center de xAI genera una demanda instant&#225;nea de 260 megavatios, equivalente al consumo de una ciudad mediana.</p><h2>DeepSeek: la eficiencia como catalizador de demanda</h2><p>El caso DeepSeek es el ejemplo perfecto de c&#243;mo la eficiencia dispara la demanda en lugar de contenerla.</p><p>La startup china utiliz&#243; t&#233;cnicas innovadoras para reducir dram&#225;ticamente los recursos necesarios: arquitectura Mixture of Experts (MoE) que activa solo 37 de 671 mil millones de par&#225;metros por consulta, aprendizaje por refuerzo puro sin fine-tuning supervisado costoso, y distillation agresiva. El resultado: performance comparable a GPT-4 y Claude con una eficiencia t&#233;cnica radicalmente superior.</p><p>Aunque DeepSeek report&#243; $5.6 millones para el entrenamiento final de su modelo V3, <a href="https://www.cnbc.com/2025/01/31/deepseeks-hardware-spend-could-be-as-high-as-500-million-report.html">investigaciones independientes de SemiAnalysis</a> estiman que los costos totales incluyendo infraestructura (aproximadamente 50,000 GPUs Hopper), R&amp;D y operaciones podr&#237;an superar los $1.3 mil millones. A&#250;n con estas cifras ajustadas, la innovaci&#243;n en arquitectura y metodolog&#237;a representa un avance significativo en eficiencia comparado con enfoques tradicionales.</p><p>La reacci&#243;n inicial del mercado fue de p&#225;nico: si entrenar modelos es radicalmente m&#225;s eficiente, &#191;colapsar&#225; la demanda de GPUs y infraestructura?</p><p>Lo opuesto ocurri&#243;.</p><p>D&#237;as antes del anuncio de DeepSeek, <strong><a href="https://www.pymnts.com/meta/2025/meta-plans-65-billion-infrastructure-investment-during-defining-year-for-ai">Meta</a></strong><a href="https://www.pymnts.com/meta/2025/meta-plans-65-billion-infrastructure-investment-during-defining-year-for-ai"> ya hab&#237;a revelado planes</a> para invertir entre $60-65 mil millones en infraestructura de IA en 2025 (comparado con $39 mil millones en 2024). Tras el lanzamiento de DeepSeek y la ca&#237;da del mercado, Mark Zuckerberg no retrocedi&#243;. En cambio, <a href="https://www.cnbc.com/2025/01/29/meta-wont-slow-ai-spending-despite-deepseeks-breakthrough-.html">reafirm&#243; durante la llamada de resultados del 29 de enero</a>: &#8220;Contin&#250;o pensando que invertir muy fuertemente en CapEx e infraestructura ser&#225; una ventaja estrat&#233;gica a largo plazo.&#8221;</p><p>Microsoft, Google y Amazon siguieron patrones similares, manteniendo o incrementando sus compromisos de gasto en lugar de reducirlos. Zuckerberg lo expres&#243; con claridad brutal: &#8220;El incentivo de no perder significa que est&#225;s dispuesto a gastar. Gastar&#225;s cualquier cosa para no perder esto&#8221;.</p><p>La eficiencia de DeepSeek desencadena tres efectos multiplicadores:</p><p><strong>1. Democratizaci&#243;n:</strong> Startups, universidades y peque&#241;as empresas que antes no pod&#237;an costear desarrollo de IA de vanguardia ahora tienen acceso a t&#233;cnicas y arquitecturas m&#225;s eficientes. Cada nuevo jugador genera demanda adicional.</p><p><strong>2. Expansi&#243;n de casos de uso:</strong> Aplicaciones que antes no eran econ&#243;micamente viables se vuelven factibles. Desde chatbots de servicio al cliente hasta agentes aut&#243;nomos en cada proceso empresarial.</p><p><strong>3. Carrera competitiva:</strong> En un juego de suma cero, las mejoras en eficiencia no generan ahorro agregado, generan presi&#243;n para escalar m&#225;s r&#225;pido que la competencia.</p><p>El resultado neto: m&#225;s eficiencia por operaci&#243;n, pero exponencialmente m&#225;s operaciones ejecutadas. La suma total apunta hacia arriba, no hacia abajo.</p><h2>&#191;Por qu&#233; seguir invirtiendo si la IA es m&#225;s eficiente?</h2><p>Esta es la pregunta que todos se hacen al ver los n&#250;meros: si DeepSeek demostr&#243; que se puede hacer m&#225;s con menos, &#191;por qu&#233; Meta, Microsoft, Google y Amazon siguen anunciando inversiones r&#233;cord?</p><p>La respuesta est&#225; en el coraz&#243;n de la Paradoja de Jevons: <strong>porque la eficiencia no reduce la demanda, la multiplica.</strong></p><h3>La l&#243;gica de la carrera tecnol&#243;gica</h3><p>Cuando la IA se vuelve m&#225;s barata y accesible, tres fuerzas se activan simult&#225;neamente:</p><p><strong>Primero, democratizaci&#243;n masiva.</strong> Startups que antes no pod&#237;an costear capacidades avanzadas de IA ahora pueden entrar al juego. Universidades pueden experimentar. Peque&#241;as empresas pueden automatizar. Cada nuevo jugador no reduce la demanda total de infraestructura &#8211; la aumenta.</p><p><strong>Segundo, expansi&#243;n de casos de uso.</strong> Aplicaciones que antes no ten&#237;an sentido econ&#243;mico se vuelven viables. &#191;Agregar un agente de IA a cada proceso interno de tu empresa? &#191;Personalizar contenido en tiempo real para cada usuario? &#191;Generar c&#243;digo autom&#225;ticamente para cada feature? Todo esto ahora tiene un ROI positivo cuando el costo por operaci&#243;n cae dram&#225;ticamente.</p><p><strong>Tercero, la din&#225;mica competitiva.</strong> Mark Zuckerberg lo expres&#243; sin filtros: &#8220;Gastar&#225;s cualquier cosa para no perder esto.&#8221; En un mercado donde la IA se est&#225; convirtiendo en ventaja competitiva esencial, ninguna empresa puede permitirse quedarse atr&#225;s. La eficiencia no genera ahorro corporativo &#8211; genera una carrera por escalar m&#225;s r&#225;pido que la competencia.</p><h3>Los l&#237;mites est&#225;n en el sistema, no en la tecnolog&#237;a</h3><p>&#191;Significa esto que el consumo crecer&#225; infinitamente? No necesariamente.</p><p>Existen frenos reales que eventualmente moderar&#225;n el crecimiento:</p><p><strong>La capacidad el&#233;ctrica tiene l&#237;mites f&#237;sicos.</strong> Construir nuevos centros de datos requiere a&#241;os de permisos, conexi&#243;n a la red, y capacidad de generaci&#243;n. La infraestructura el&#233;ctrica ya est&#225; bajo presi&#243;n, y agregar gigavatios de demanda no sucede de la noche a la ma&#241;ana.</p><p><strong>La regulaci&#243;n ambiental se est&#225; endureciendo.</strong> El consumo de agua para enfriamiento, las emisiones de carbono, y el impacto local en comunidades est&#225;n generando resistencia pol&#237;tica y social. Microsoft ya anunci&#243; objetivos de enfriamiento con cero consumo de agua. Otros seguir&#225;n.</p><p><strong>El costo de capital no es infinito.</strong> Aunque la inferencia es m&#225;s barata por operaci&#243;n, escalar requiere inversiones masivas que eventualmente encuentran l&#237;mites de retorno. Los inversionistas eventualmente exigir&#225;n rentabilidad, no solo crecimiento.</p><p><strong>La licencia social importa.</strong> La presi&#243;n ESG sobre boards corporativos y el escrutinio p&#250;blico est&#225;n forzando mayor transparencia. Las empresas no pueden simplemente ignorar el impacto ambiental de sus decisiones de infraestructura.</p><p>Pero estos l&#237;mites no vienen de la tecnolog&#237;a siendo m&#225;s eficiente. Vienen del sistema m&#225;s amplio &#8211; regulatorio, econ&#243;mico, pol&#237;tico &#8211; imponiendo restricciones externas.</p><h2>Lo que realmente est&#225; en juego</h2><p>La Paradoja de Jevons aplicada a la inteligencia artificial revela algo que la industria tech prefiere no confrontar directamente: <strong>las inversiones masivas en infraestructura de IA no son irracionales. Son la respuesta l&#243;gica a un mercado donde la eficiencia multiplica la demanda.</strong></p><p>Cuando Meta anuncia $65 mil millones en gastos de capital para 2025, no lo hace porque DeepSeek haya fallado. Lo hace precisamente porque DeepSeek tuvo &#233;xito. La eficiencia demostrada valida que la IA es viable a escala masiva &#8211; y eso desencadena una carrera por capturar esa oportunidad antes que la competencia.</p><p>Cuando Microsoft invierte $80 mil millones en centros de datos, no ignora las lecciones de eficiencia. Las incorpora, sabiendo que cada punto de eficiencia ganada permite 10 nuevos casos de uso que antes no ten&#237;an sentido econ&#243;mico.</p><p>Esta no es una historia de desperdicio corporativo o mala planificaci&#243;n. Es la din&#225;mica natural de c&#243;mo las sociedades humanas responden a las mejoras tecnol&#243;gicas: expandiendo el uso hasta encontrar los l&#237;mites del sistema.</p><h3>El reframe necesario</h3><p>DeepSeek no marca el final de las inversiones masivas en IA. Marca el comienzo de una nueva fase donde:</p><ul><li><p>La IA deja de ser un lujo de gigantes tech para convertirse en infraestructura b&#225;sica</p></li><li><p>Los costos marginales caen lo suficiente para justificar su uso en pr&#225;cticamente todo</p></li><li><p>La competencia se traslada de &#8220;qui&#233;n puede costear IA&#8221; a &#8220;qui&#233;n puede escalarla m&#225;s r&#225;pido&#8221;</p></li></ul><p>La pregunta no es si veremos m&#225;s inversi&#243;n en infraestructura de IA. La pregunta es si esa infraestructura se construir&#225; de manera sostenible &#8211; con energ&#237;a renovable, cooling eficiente, y dise&#241;o consciente del impacto ambiental.</p><p>La eficiencia t&#233;cnica es necesaria pero no suficiente. Sin l&#237;mites externos del sistema (regulaci&#243;n, costo de energ&#237;a, presi&#243;n social), la eficiencia simplemente acelera el consumo agregado.</p><div><hr></div><p><strong>La pr&#243;xima vez que leas sobre inversiones &#8220;irracionales&#8221; de cientos de miles de millones en IA, recuerda la Paradoja de Jevons: no est&#225;n apostando contra la eficiencia. Est&#225;n apostando a que la eficiencia multiplicar&#225; la demanda m&#225;s r&#225;pido de lo que cualquiera imagina.</strong></p><p><strong>Y la historia sugiere que probablemente tengan raz&#243;n.</strong></p>]]></content:encoded></item><item><title><![CDATA[La Serpiente que Se Digiere: Cómo Nvidia y OpenAI Rediseñan el AI Stack]]></title><description><![CDATA[Como se est&#225;n consolidando las capas del Nuevo AI Stack y sus implicancias tecnol&#243;gicas y competitivas]]></description><link>https://www.laultimainterfaz.com/p/la-serpiente-que-se-digiere-como</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/la-serpiente-que-se-digiere-como</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Fri, 03 Oct 2025 17:56:54 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/44e73e36-d1f5-4d7d-becf-f5d8659fb9f7_1344x768.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p><a href="https://www.linkedin.com/posts/saanyaojha_the-headlines-had-it-backwards-yesterday-activity-7376284251622834176-lNbZ">Saanya Ojha lo llam&#243; &#8220;el ouroboros financiero&#8221;</a> - la serpiente antigua que se muerde su propia cola. Nvidia invierte $100 mil millones en OpenAI, quien usa ese dinero para comprar chips de Nvidia, quien se valoriza por esa demanda, quien invierte m&#225;s en OpenAI. El dinero rota entre las mismas tres empresas: Nvidia, OpenAI, Oracle.</p><p>Pero aqu&#237; est&#225; el problema: esta serpiente no solo se muerde la cola. <strong>Se est&#225; digiriendo a s&#237; misma</strong>. Y lo que queda despu&#233;s de la digesti&#243;n no es un c&#237;rculo financiero, es una nueva arquitectura de control del AI Stack que cambia todo.</p><h2>El Stack que Describ&#237; Hace Seis Semanas</h2><p>En agosto <a href="https://www.laultimainterfaz.com/p/el-nuevo-ai-stack">escrib&#237; sobre el AI Stack</a>, describiendo c&#243;mo se estructura el ecosistema de inteligencia artificial en cinco capas fundamentales: semiconductores en la base, seguidos por infraestructura en la nube, modelos fundacionales, una capa emergente de orquestaci&#243;n ag&#233;ntica, y aplicaciones en la superficie.</p><p>Mi argumento era directo: las mejores oportunidades para emprendedores est&#225;n en la capa de aplicaciones. No porque las otras capas no sean importantes, sino porque ya est&#225;n dominadas por gigantes con recursos pr&#225;cticamente ilimitados. Las barreras de entrada en semiconductores o cloud son extraordinariamente altas, requiriendo inversiones de miles de millones de d&#243;lares.</p><p>La l&#243;gica econ&#243;mica era simple: <strong>las aplicaciones deben generar suficiente valor para pagar por toda la infraestructura subyacente</strong>. Casi por definici&#243;n, las mayores oportunidades tienen que estar donde el valor finalmente llega a los usuarios finales.</p><p>No estaba haciendo una predicci&#243;n sobre el futuro. Estaba describiendo la realidad del ecosistema tal como exist&#237;a. Pero seis semanas despu&#233;s, esa realidad acaba de intensificarse de forma dram&#225;tica.</p><h2>Los N&#250;meros Reales del Deal</h2><p>Los titulares se enfocaron en <a href="https://nvidianews.nvidia.com/news/openai-and-nvidia-announce-strategic-partnership-to-deploy-10gw-of-nvidia-systems">los $100 mil millones de inversi&#243;n de Nvidia en OpenAI</a>. Pero como se&#241;al&#243; Saanya, esa no es la historia principal. La historia real es que OpenAI planea desplegar <strong>10 gigavatios de sistemas de Nvidia</strong> para su infraestructura.</p><p>Para poner eso en perspectiva: 10GW es aproximadamente la mitad de toda la generaci&#243;n el&#233;ctrica de escala industrial a&#241;adida en Estados Unidos en el primer semestre de 2025. O, si prefieres, el equivalente a 10 plantas nucleares - todas dedicadas a inteligencia artificial.</p><p>Esa escala se traduce en <a href="https://www.cnbc.com/2025/09/22/nvidia-openai-data-center.html">aproximadamente 4-5 millones de GPUs</a>, b&#225;sicamente la producci&#243;n completa de Nvidia para este a&#241;o y el doble de los env&#237;os del a&#241;o pasado.</p><p>Pero aqu&#237; est&#225; lo que pocos est&#225;n discutiendo: <strong>la inversi&#243;n total se estima en aproximadamente $500 mil millones</strong>. <a href="https://www.cnbc.com/2025/09/22/nvidia-openai-data-center.html">Jensen Huang mencion&#243; en agosto</a> que construir un gigavatio de capacidad de centro de datos cuesta entre $50 y $60 mil millones, de los cuales aproximadamente $35 mil millones son para chips y sistemas de Nvidia. Multiplicado por 10 gigavatios, estamos hablando de un proyecto que podr&#237;a requerir medio bill&#243;n de d&#243;lares en infraestructura total.</p><p>Y aqu&#237; est&#225; el giro: <a href="https://www.cnbc.com/2025/09/24/nvidia-openai-investment-in-cash-mostly-used-to-lease-nvidia-chips.html">OpenAI planea arrendar los procesadores de Nvidia</a> en lugar de comprarlos directamente, distribuyendo los costos a lo largo de la vida &#250;til de las GPUs, que podr&#237;a ser hasta cinco a&#241;os. Nvidia est&#225; parcialmente financiando sus propias ventas.</p><p>Y el consumo energ&#233;tico de esta infraestructura ser&#225; equivalente a suministrar electricidad a m&#225;s de 8 millones de hogares estadounidenses.</p><h2>Del DGX-1 al Control Vertical</h2><p>Hay una historia dentro de esta historia que <a href="https://blogs.nvidia.com/blog/openai-nvidia/">Jensen Huang menciona</a> pero que pocos est&#225;n conectando: en agosto de 2016, cuando OpenAI era todav&#237;a una fundaci&#243;n sin &#225;nimo de lucro, Jensen camin&#243; personalmente hasta sus oficinas en San Francisco y entreg&#243; el primer servidor DGX-1.</p><p>Ese servidor redujo el tiempo de entrenamiento de modelos de seis d&#237;as a solo dos horas. Fue el momento en que qued&#243; claro que el acceso al poder de c&#243;mputo ser&#237;a el recurso estrat&#233;gico de la era de la inteligencia artificial.</p><p>Nueve a&#241;os despu&#233;s, la misma dupla anuncia el acuerdo de infraestructura de IA m&#225;s grande de la historia.</p><h2>M&#225;s All&#225; del Ouroboros: Arquitectura de Control</h2><p>Saanya tiene raz&#243;n en que el c&#237;rculo financiero parece una burbuja a primera vista. Capital rotando entre los mismos jugadores, inflando valoraciones mutuas, recordando a las startups del dot-com que se vend&#237;an publicidad entre ellas.</p><p>Pero hay una diferencia fundamental: <strong>esta vez est&#225;n construyendo infraestructura f&#237;sica irreversible</strong>. Los chips de Nvidia son reales. Los centros de datos de Oracle se est&#225;n construyendo en concreto. Los modelos de OpenAI est&#225;n procesando consultas para 700 millones de personas cada semana.</p><p>El problema no es que nada se est&#233; construyendo. El problema es <strong>qu&#233; tipo de estructura de poder se est&#225; construyendo</strong>.</p><h3>Para Nvidia: M&#225;s All&#225; de Vender Picotas y Palas</h3><p>Durante a&#241;os, Nvidia ha sido el &#8220;proveedor de picotas y palas&#8221; de la fiebre del oro de la IA. Pero este acuerdo cambia fundamentalmente su posici&#243;n:</p><ul><li><p><strong>Lock-in del cliente m&#225;s grande</strong>: Con m&#225;s de 700 millones de usuarios semanales, OpenAI es uno de los mayores consumidores de GPUs del mundo. <a href="https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-usd100-billion-investment-in-openai-raises-big-antitrust-concerns-legal-experts-and-policymakers-raise-eyebrows-over-potential-for-market-imbalance">Invertir capital asegura</a> que no migre a arquitecturas alternativas (AMD, Intel o dise&#241;os propios).</p></li><li><p><strong>Captura de valor en m&#250;ltiples capas</strong>: Nvidia ya no solo vende hardware. Ahora co-posee el software que corre sobre ese hardware, capturando valor en dos capas del stack simult&#225;neamente.</p></li><li><p><strong>Bloqueo competitivo</strong>: Como <a href="https://www.reuters.com/legal/litigation/nvidias-100-billion-openai-play-raises-big-antitrust-issues-2025-09-23/">se&#241;alan analistas de competencia</a>, la inversi&#243;n puede crear incentivos para priorizar a OpenAI con mejores t&#233;rminos o acceso m&#225;s r&#225;pido a GPUs de siguiente generaci&#243;n, dificultando que rivales como AMD accedan a recursos esenciales.</p></li></ul><h3>Para OpenAI: Independencia y Dependencia</h3><p>El acuerdo le proporciona a OpenAI acceso garantizado a la escala de c&#243;mputo que necesita para su <a href="https://openai.com/index/openai-nvidia-systems-partnership/">camino hacia la superinteligencia</a>. Sam Altman insiste en que <a href="https://nvidianews.nvidia.com/news/openai-and-nvidia-announce-strategic-partnership-to-deploy-10gw-of-nvidia-systems">&#8220;todo comienza con el c&#243;mputo&#8221;</a> y que la infraestructura ser&#225; la base de la econom&#237;a del futuro.</p><p>Tambi&#233;n reduce su dependencia de Microsoft, que <a href="https://www.fool.com/investing/2024/11/10/microsoft-13-billion-openai-best-money-ever-spent/">tiene derechos sobre el 49% de los beneficios futuros de OpenAI</a> una vez que recupere su inversi&#243;n de $13 mil millones (actualmente OpenAI a&#250;n opera con p&#233;rdidas). La diversificaci&#243;n de fuentes de capital facilita la transformaci&#243;n de OpenAI en una entidad con fines de lucro.</p><p>Pero hay un costo: OpenAI queda tecnol&#243;gicamente atada a Nvidia por d&#233;cadas. Si aparece una arquitectura de chips superior, si los dise&#241;os de AMD superan a Nvidia, si los TPUs de Google demuestran ser m&#225;s eficientes para ciertos workloads - OpenAI tendr&#237;a dificultades significativas para pivotear. Ha comprometido una parte sustancial de su futuro tecnol&#243;gico a un &#250;nico proveedor de hardware, aunque Altman claramente considera que los beneficios de escala y acceso garantizado justifican este riesgo.</p><h2>Lo Que Esto Significa Para el AI Stack</h2><p>Cuando analic&#233; las cinco capas del AI Stack en agosto, argument&#233; que las capas inferiores - semiconductores, cloud, modelos fundacionales - estaban dominadas por gigantes con barreras de entrada extraordinariamente altas.</p><p>Este acuerdo no solo confirma esa observaci&#243;n. <strong>La intensifica</strong>.</p><p>Las capas inferiores del stack no solo est&#225;n dominadas por gigantes. Ahora esos gigantes se est&#225;n fusionando verticalmente de formas que hacen que la competencia sea estructuralmente m&#225;s dif&#237;cil.</p><p>Para los emprendedores, esto refuerza la tesis original: <strong>no compitan en las capas inferiores</strong>. Las barreras de entrada acaban de subir otro orden de magnitud. Si necesitabas miles de millones antes, ahora necesitas cientos de miles de millones y una relaci&#243;n preferencial con uno de los tres proveedores dominantes.</p><p>Pero hay una complicaci&#243;n nueva: &#191;qu&#233; significa este nivel de consolidaci&#243;n para el poder de negociaci&#243;n de las aplicaciones?</p><p>La ecuaci&#243;n econ&#243;mica que describ&#237; sigue siendo v&#225;lida - las aplicaciones deben generar suficiente valor para pagar por toda la infraestructura. Pero cuando la infraestructura est&#225; tan concentrada, cuando tres empresas controlan efectivamente el acceso al c&#243;mputo, <strong>&#191;cambia el balance de poder?</strong></p><p>Es una pregunta sin respuesta clara todav&#237;a. Pero es la pregunta correcta para cualquier emprendedor construyendo en la capa de aplicaciones.</p><h2>Los Riesgos Que Nadie Est&#225; Discutiendo</h2><p>La estructura de este deal plantea interrogantes que van m&#225;s all&#225; del entusiasmo inicial del mercado.</p><p><strong>Financieramente</strong>, la circularidad del capital es preocupante. Nvidia invierte $100 mil millones que esencialmente regresan como compras de chips. Si OpenAI no puede generar los ingresos reales para sostener esto - m&#225;s all&#225; del dinero que Nvidia le est&#225; proporcionando - las valoraciones interdependientes podr&#237;an colapsar en cadena.</p><p><strong>Estrat&#233;gicamente</strong>, el nivel de lock-in es significativo. OpenAI ha comprometido una parte importante de su infraestructura tecnol&#243;gica a Nvidia por d&#233;cadas. <a href="https://www.reuters.com/business/view-analysts-react-nvidias-100-billion-investment-openai-2025-09-22/">Como advierte Kim Forrest de Bokeh Capital</a>, la estrecha vinculaci&#243;n puede crear &#8220;miop&#237;a&#8221; y abrir la puerta a que otros fabricantes seduzcan a clientes de Nvidia.</p><p>Y desde una perspectiva de ecosistema, aunque <a href="https://edition.cnn.com/2025/09/22/business/nvidia-openai-investment">la administraci&#243;n Trump ha tomado un enfoque m&#225;s laxo</a> en temas de competencia comparado con la administraci&#243;n Biden, <a href="https://edition.cnn.com/2025/09/22/business/nvidia-openai-investment">el Departamento de Justicia y la FTC ya acordaron en 2024</a> repartirse las investigaciones potenciales de Microsoft, OpenAI y Nvidia. Este acuerdo podr&#237;a eventualmente enfrentar escrutinio antimonopolio.</p><h2>El Contexto M&#225;s Amplio: Stargate y la Carrera por la Infraestructura</h2><p>Este acuerdo no existe en aislamiento. Es parte del <a href="https://www.reuters.com/business/media-telecom/openai-oracle-softbank-plan-five-new-ai-data-centers-500-billion-stargate-2025-09-23/">proyecto Stargate</a>, una iniciativa de $500 mil millones impulsada por OpenAI, Oracle y SoftBank para crear los mayores centros de IA del mundo. OpenAI ya ha firmado con Oracle <a href="https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-usd100-billion-investment-in-openai-raises-big-antitrust-concerns-legal-experts-and-policymakers-raise-eyebrows-over-potential-for-market-imbalance">un contrato de $300 mil millones en capacidad de c&#243;mputo</a> para los pr&#243;ximos cinco a&#241;os.</p><p>Y Nvidia no est&#225; poniendo todos sus huevos en una sola canasta. Una semana antes del anuncio con OpenAI, <a href="https://www.euronews.com/business/2025/09/18/nvidia-invests-5-billion-in-intel-to-develop-ai-infrastructure">invirti&#243; $5 mil millones en Intel</a>, adquiriendo aproximadamente el 4% de la compa&#241;&#237;a. Jensen Huang describi&#243; la colaboraci&#243;n como una fusi&#243;n de &#8220;dos plataformas de clase mundial&#8221; que integrar&#225; la pila de aceleraci&#243;n de Nvidia con los CPUs x86 de Intel.</p><p>Estamos presenciando el surgimiento de un nuevo tipo de ecosistema: no solo vertical, sino entrelazado. Donde los proveedores de hardware invierten en software, los proveedores de software contratan cloud masivo, y los proveedores de cloud compran hardware en cantidades sin precedentes.</p><h2>La Oportunidad Sigue Estando en las Aplicaciones (Pero el Juego Cambi&#243;)</h2><p>Seis semanas despu&#233;s de analizar el AI Stack, mi tesis fundamental se mantiene: <strong>las mejores oportunidades para la mayor&#237;a de emprendedores est&#225;n en la capa de aplicaciones</strong>.</p><p>No porque las otras capas no sean importantes, sino porque son ahora estructuralmente inaccesibles para cualquiera que no sea un gigante tecnol&#243;gico con cientos de miles de millones en capital.</p><p>Pero el contexto ha cambiado. Las aplicaciones ya no solo compiten contra otras aplicaciones. Ahora deben navegar un stack donde las capas inferiores est&#225;n m&#225;s concentradas, m&#225;s verticalmente integradas, y potencialmente m&#225;s capaces de extraer valor.</p><p>La paradoja es que esto podr&#237;a <strong>fortalecer</strong> a las aplicaciones verdaderamente diferenciadas. Si el acceso al c&#243;mputo se vuelve commodity (aunque caro), la ventaja competitiva se desplaza a&#250;n m&#225;s hacia el conocimiento del dominio, la experiencia de usuario, y los datos propietarios que se generan a trav&#233;s del uso.</p><p>Las aplicaciones m&#225;s defensibles ser&#225;n aquellas que generen y refinen datos &#250;nicos que mejoren su rendimiento. Esto crea un ciclo virtuoso donde m&#225;s uso lleva a mejor rendimiento, lo cual atrae m&#225;s usuarios.</p><h2>La Serpiente Digiere</h2><p>La met&#225;fora del ouroboros financiero es brillante, pero incompleta. S&#237;, el dinero rota entre las mismas empresas. S&#237;, parece circular y potencialmente insostenible.</p><p>Pero lo que estamos presenciando no es solo dinero mordi&#233;ndose la cola. Es la digesti&#243;n de todo un ecosistema tecnol&#243;gico en una nueva forma de organizaci&#243;n industrial.</p><p>Cuando la serpiente termina de digerirse, lo que queda no es un c&#237;rculo. Es una estructura jer&#225;rquica de control sobre las capas fundamentales del AI Stack.</p><p>Para los emprendedores, el mensaje es claro: construyan en las aplicaciones, pero entiendan la arquitectura de poder que sustenta su trabajo. El stack que describ&#237; en agosto sigue siendo relevante. Pero ahora sabemos que no son solo capas t&#233;cnicas - son capas de control econ&#243;mico y estrat&#233;gico.</p><p>Y esas capas acaban de consolidarse de formas que nadie anticip&#243; hace seis semanas.</p>]]></content:encoded></item><item><title><![CDATA[GDPval: La Primera Radiografía Real del Impacto Económico de la IA]]></title><description><![CDATA[OpenAI public&#243; la primera medici&#243;n rigurosa de qu&#233; tan cerca estamos de automatizar el trabajo cognitivo. Los resultados cambian lo que cre&#237;amos saber sobre el timing de esta transformaci&#243;n.]]></description><link>https://www.laultimainterfaz.com/p/gdpval-la-primera-radiografia-real</link><guid isPermaLink="false">https://www.laultimainterfaz.com/p/gdpval-la-primera-radiografia-real</guid><dc:creator><![CDATA[Francisco Sandoval]]></dc:creator><pubDate>Tue, 30 Sep 2025 13:03:14 GMT</pubDate><enclosure url="https://substack-post-media.s3.amazonaws.com/public/images/341b4bd7-4b88-4638-86a9-1c9a7b6bdd6a_1024x1024.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Durante a&#241;os, la industria tecnol&#243;gica ha evaluado el progreso de la inteligencia artificial usando benchmarks acad&#233;micos: ex&#225;menes de matem&#225;ticas competitivas, preguntas de doctorado, problemas de programaci&#243;n sint&#233;ticos. Estos tests han servido como proxy del avance t&#233;cnico, pero han dejado una pregunta fundamental sin respuesta: <strong>&#191;qu&#233; tan cerca estamos realmente de que la IA pueda realizar el trabajo econ&#243;mico real que hacen los humanos?</strong></p><p>OpenAI acaba de responder esta pregunta con <a href="https://openai.com/index/gdpval/">GDPval</a>, la primera evaluaci&#243;n sistem&#225;tica que mide el desempe&#241;o de modelos de IA en tareas extra&#237;das directamente del trabajo real de profesionales con experiencia. No son ejercicios acad&#233;micos ni simulaciones: son entregables aut&#233;nticos del tipo que producen abogados, ingenieros, enfermeros, analistas financieros y 40 ocupaciones m&#225;s, evaluados por expertos de la industria en comparaciones ciegas.</p><p>Los resultados revelan una realidad que muchos l&#237;deres empresariales no est&#225;n preparados para enfrentar.</p><h2>La Nueva Realidad: Paridad Emergente en el Trabajo Cognitivo</h2><p>Claude Opus 4.1 de <a href="https://www.anthropic.com/">Anthropic</a> alcanz&#243; un 47.6% de &#8220;win rate&#8221; contra expertos humanos. Esto significa que en casi la mitad de las tareas evaluadas, el modelo de IA produjo trabajo que los evaluadores expertos consideraron igual o superior al de profesionales con un promedio de 14 a&#241;os de experiencia.</p><p>GPT-5 de <a href="https://openai.com/">OpenAI</a> logr&#243; 38.8%, mientras que modelos anteriores como GPT-4o obtuvieron apenas 12.4%. Esta progresi&#243;n sostenida entre generaciones de modelos sugiere que la paridad completa en muchas tareas cognitivas no es una posibilidad futura lejana, sino una realidad emergente.</p><p>Pero hay un detalle crucial que revela la sofisticaci&#243;n de esta competencia: <strong>los modelos se est&#225;n especializando</strong>. Claude Opus 4.1 domin&#243; en tareas est&#233;ticas y de formato &#8211; presentaciones pulidas, documentos bien estructurados, layouts profesionales. GPT-5 sobresali&#243; en precisi&#243;n y seguimiento riguroso de instrucciones t&#233;cnicas. Esta especializaci&#243;n sugiere que la automatizaci&#243;n no ser&#225; un fen&#243;meno uniforme, sino selectivo y estrat&#233;gico.</p><h2>Ejemplos Concretos: D&#243;nde la IA Ya Compite</h2><p>Los datos de GDPval revelan patrones espec&#237;ficos sobre qu&#233; tipos de tareas muestran mayor vulnerabilidad a automatizaci&#243;n. Algunos ejemplos representativos de donde los modelos alcanzaron o superaron performance humana:</p><p><strong>Ingenier&#237;a y Manufactura:</strong></p><ul><li><p>Dise&#241;o de modelos 3D para ensamblaje de l&#237;neas de cable</p></li><li><p>Creaci&#243;n de planos t&#233;cnicos con medidas precisas y especificaciones de componentes</p></li><li><p>Optimizaci&#243;n de layouts de f&#225;brica para mejorar flujos de trabajo y reducir distancias de caminata</p></li></ul><p><strong>Servicios Financieros:</strong></p><ul><li><p>An&#225;lisis competitivo de modelos de inversi&#243;n para deliverables de clientes</p></li><li><p>Creaci&#243;n de presentaciones ejecutivas con forecasts de revenue y an&#225;lisis de mercado</p></li><li><p>Evaluaci&#243;n de riesgos financieros basada en datos hist&#243;ricos y tendencias</p></li></ul><p><strong>Atenci&#243;n al Cliente y Ventas:</strong></p><ul><li><p>Respuestas estructuradas a consultas complejas de clientes insatisfechos</p></li><li><p>Desarrollo de estrategias de ventas para cuentas espec&#237;ficas</p></li><li><p>Creaci&#243;n de materiales de marketing dirigidos a segmentos particulares</p></li></ul><p><strong>Servicios Profesionales:</strong></p><ul><li><p>Redacci&#243;n de briefs legales con an&#225;lisis de precedentes relevantes</p></li><li><p>Desarrollo de planes de tratamiento m&#233;dico basados en s&#237;ntomas y historiales</p></li><li><p>Creaci&#243;n de itinerarios detallados para viajes de lujo con m&#250;ltiples destinos</p></li></ul><p><strong>Gobierno y Servicios Sociales:</strong></p><ul><li><p>An&#225;lisis de pol&#237;ticas p&#250;blicas con recomendaciones implementables</p></li><li><p>Evaluaci&#243;n de programas sociales con m&#233;tricas de efectividad</p></li><li><p>Coordinaci&#243;n de respuestas a emergencias con asignaci&#243;n de recursos</p></li></ul><p>Lo revelador de estos ejemplos no es solo que la IA puede realizarlos, sino <strong>el tipo de trabajo que representan</strong>: tareas que requieren expertise significativo, pero que siguen procesos relativamente estructurados y producen deliverables evaluables objetivamente. Son exactamente el tipo de trabajo que constituye el n&#250;cleo econ&#243;mico de muchas organizaciones profesionales.</p><h2>El Espejismo de los Costos</h2><p>OpenAI promociona que sus modelos pueden completar estas tareas &#8220;100 veces m&#225;s r&#225;pido y 100 veces m&#225;s barato&#8221; que los expertos humanos. Esta cifra ha dominado los titulares, pero incluye una advertencia crucial que muchos han pasado por alto: estos n&#250;meros reflejan &#250;nicamente el tiempo de inferencia del modelo y las tarifas de API.</p><p><strong>No incluyen los costos reales de implementaci&#243;n</strong>: supervisi&#243;n humana, iteraci&#243;n, integraci&#243;n con sistemas existentes, control de calidad, responsabilidad legal, y el tiempo de gesti&#243;n que requiere cualquier automatizaci&#243;n en organizaciones complejas.</p><p><a href="https://www.linkedin.com/in/aaron-ronnie-chatterji/">Ronnie Chatterji,</a> economista jefe de OpenAI, fue expl&#237;cito al respecto: &#8220;No capturan la supervisi&#243;n humana, iteraci&#243;n e integraci&#243;n requeridas en entornos laborales reales&#8221;. Una estimaci&#243;n m&#225;s realista del ahorro de costos probablemente est&#233; entre 2x y 10x, no 100x &#8211; a&#250;n significativo, pero no revolucionario de la noche a la ma&#241;ana.</p><p>Esta transparencia es inusual en una industria conocida por inflar sus capacidades, y sugiere que OpenAI entiende que expectativas irreales pueden generar backlash cuando la implementaci&#243;n real no cumple las promesas.</p><h2>Transformaci&#243;n del Liderazgo: De la Intuici&#243;n a la M&#233;trica</h2><p>GDPval representa algo m&#225;s profundo que un benchmark t&#233;cnico: es la primera herramienta que permite a los l&#237;deres empresariales cuantificar objetivamente qu&#233; procesos automatizar y cu&#225;ndo.</p><p>Hasta ahora, las decisiones sobre adopci&#243;n de IA se basaban en intuici&#243;n, marketing de proveedores, o proyectos piloto limitados. GDPval ofrece un framework para calcular ROI predecible por funci&#243;n espec&#237;fica. Una empresa puede ahora mapear qu&#233; porcentaje de sus operaciones cae en categor&#237;as donde los modelos actuales muestran alta performance, y desarrollar roadmaps de automatizaci&#243;n basados en datos concretos.</p><p>Las implicaciones competitivas son directas: <strong>las empresas que adopten primero en tareas de alta puntuaci&#243;n GDPval deber&#237;an generar ventajas de costo estructurales</strong>. Pero hay una ventana temporal limitada &#8211; probablemente 2-3 a&#241;os &#8211; antes de que estas ventajas se democraticen y se conviertan en requisitos b&#225;sicos para competir.</p><h2>El Futuro del Trabajo Cognitivo: Fragmentaci&#243;n, No Extinci&#243;n</h2><p>Los datos de GDPval revelan un patr&#243;n que contradice tanto el tecno-optimismo ingenuo como el pesimismo sobre desempleo masivo: <strong>los trabajos no desaparecen uniformemente, se fragmentan</strong>.</p><p>Las tareas que pueden ser especificadas claramente, que siguen procesos predecibles, y que producen deliverables evaluables objetivamente est&#225;n siendo automatizadas r&#225;pidamente. Pero el trabajo que requiere navegar ambig&#252;edad, construir contexto a trav&#233;s de m&#250;ltiples iteraciones, manejar stakeholders con agendas conflictivas, o tomar decisiones en situaciones impredecibles permanece firmemente humano.</p><p>Esto significa que la mayor&#237;a de las ocupaciones evolucionar&#225;n en lugar de desaparecer. Los abogados seguir&#225;n existiendo, pero pasar&#225;n menos tiempo redactando contratos est&#225;ndar y m&#225;s tiempo en negociaciones estrat&#233;gicas y relaciones con clientes. Los analistas financieros har&#225;n menos modelado rutinario y m&#225;s interpretaci&#243;n de escenarios complejos.</p><p><strong>La pregunta cr&#237;tica no es &#8220;&#191;ser&#225; reemplazado mi trabajo?&#8221; sino &#8220;&#191;qu&#233; partes de mi trabajo ser&#225;n automatizadas y c&#243;mo <a href="https://www.laultimainterfaz.com/p/el-arte-de-volverse-irreemplazable">redise&#241;o mi rol</a> alrededor de lo que permanece exclusivamente humano?&#8221;</strong></p><h2>Las Limitaciones Reveladoras de GDPval</h2><p>Parad&#243;jicamente, las limitaciones de GDPval son tan instructivas como sus resultados. El benchmark solo eval&#250;a tareas &#8220;one-shot&#8221; &#8211; problemas claramente especificados que pueden resolverse en una sola iteraci&#243;n. No captura la din&#225;mica iterativa, el refinamiento colaborativo, o la navegaci&#243;n de requisitos ambiguos que caracterizan la mayor&#237;a del trabajo cognitivo de alto valor.</p><p>Tampoco mide el &#8220;tacit knowledge&#8221; &#8211; la intuici&#243;n desarrollada a trav&#233;s de a&#241;os de experiencia, la capacidad de leer entre l&#237;neas en comunicaciones complejas, o el juicio para saber cu&#225;ndo romper las reglas. Estas limitaciones no son accidentales; revelan exactamente d&#243;nde la ventaja humana permanecer&#225; sostenible.</p><p>Las organizaciones m&#225;s inteligentes usar&#225;n GDPval no solo para identificar qu&#233; automatizar, sino para clarificar qu&#233; habilidades humanas desarrollar y retener.</p><h2>Tensiones Entre Discurso y Datos</h2><p>Hay una contradicci&#243;n fascinante en c&#243;mo OpenAI presenta estos resultados. P&#250;blicamente enfatizan &#8220;complementariedad&#8221; &#8211; la IA como herramienta que potencia a los humanos en lugar de reemplazarlos. Pero GDPval mide expl&#237;citamente competencia directa: modelo versus humano en tareas id&#233;nticas.</p><p>Esta tensi&#243;n refleja la realidad pol&#237;tica y econ&#243;mica que enfrenta la industria. Demostrar capacidades superiores es esencial para justificar valoraciones masivas y atraer inversi&#243;n. Pero reclamar reemplazo directo de trabajadores invita escrutinio regulatorio y resistencia social.</p><p>La verdad probablemente est&#225; entre ambos extremos. En tareas bien definidas y estructuradas, estamos viendo reemplazo directo. En trabajo que requiere adaptabilidad y juicio contextual, estamos viendo amplificaci&#243;n y colaboraci&#243;n.</p><h2>Implicaciones Inmediatas para L&#237;deres</h2><p>Los ejecutivos que tomen en serio los datos de GDPval necesitan actuar en tres frentes simult&#225;neamente:</p><p><strong>Auditor&#237;a estrat&#233;gica</strong>: Mapear qu&#233; porcentaje de las funciones organizacionales caen en categor&#237;as donde los modelos actuales muestran performance &gt;30%. Estas son candidatas inmediatas para automatizaci&#243;n piloto.</p><p><strong>Desarrollo de capacidades</strong>: Invertir en reskilling hacia habilidades &#8220;IA-resistentes&#8221; &#8211; pensamiento sist&#233;mico, facilitaci&#243;n de colaboraci&#243;n, navegaci&#243;n de ambig&#252;edad, construcci&#243;n de relaciones &#8211; antes de que la presi&#243;n competitiva haga esta transici&#243;n m&#225;s urgente y costosa.</p><p><strong>Ventaja competitiva temporal</strong>: Los datos sugieren una ventana de 2-3 a&#241;os donde los early adopters pueden capturar ventajas estructurales. Despu&#233;s de eso, la automatizaci&#243;n de tareas de alta puntuaci&#243;n GDPval se convertir&#225; en requisito b&#225;sico para competir.</p><h2>La Pregunta &#201;tica Inevitable</h2><p>Si GDPval demuestra que su empresa puede ahorrar 30-50% en costos operativos automatizando funciones espec&#237;ficas, manteniendo o mejorando la calidad, <strong>&#191;es &#233;ticamente sostenible no hacerlo? &#243; &#191;es &#233;ticamente sostenible hacerlo?</strong></p><p>Estas preguntas se vuelven m&#225;s complejas cuando consideramos stakeholders: accionistas que esperan maximizaci&#243;n de eficiencia, empleados cuyas funciones ser&#225;n automatizadas, clientes que se benefician de costos menores, y la sociedad que debe absorber las disrupciones laborales.</p><p>No hay respuestas f&#225;ciles, pero GDPval al menos nos permite hacer estas discusiones basadas en datos concretos en lugar de especulaci&#243;n.</p><h2>El Timing es Todo</h2><p>Quiz&#225;s el insight m&#225;s importante de GDPval no est&#225; en los n&#250;meros espec&#237;ficos, sino en lo que revelan sobre timing. La capacidad t&#233;cnica para automatizar trabajo cognitivo significativo no es una promesa futura &#8211; est&#225; ocurriendo ahora, de manera medible y acelerada.</p><p>Pero hay un gap cr&#237;tico entre capacidad t&#233;cnica y adopci&#243;n organizacional. Las empresas que logren cerrar este gap m&#225;s r&#225;pido &#8211; desarrollando procesos para identificar, implementar y gestionar automatizaci&#243;n de tareas cognitivas &#8211; tendr&#225;n ventajas competitivas sostenibles.</p><p><strong>La pregunta no es si esta transformaci&#243;n ocurrir&#225;, sino qui&#233;n estar&#225; preparado cuando llegue</strong>.</p><p>Los datos de GDPval sugieren que esa preparaci&#243;n necesita comenzar ahora, no cuando los modelos alcancen paridad completa. Para entonces, ya ser&#225; demasiado tarde para capturar ventajas competitivas &#8211; y quiz&#225;s para gestionar la transici&#243;n de manera que preserve tanto el valor econ&#243;mico como el bienestar humano.</p>]]></content:encoded></item></channel></rss>