¿Viene otro invierno? — por qué esta vez es diferente (o no)
Wall Street y Silicon Valley hablan idiomas diferentes en 2024-2025.
En noviembre de 2024, NVIDIA cruzó la línea de los 3 trillones de dólares de capitalización de mercado. Hace 36 meses valía 500 mil millones. Los traders de Wall Street están apostando que la demanda de chips para entrenar IA va a crecer exponencialmente por al menos otra década. Es una apuesta audaz. Posiblemente correcta. Posiblemente una ilusión.
En paralelo, en San Francisco, algunos inversores se hacen la pregunta incómoda: ¿cuánto tiempo aguanta una carrera así sin que la realidad se interponga?
Los argumentos por un "tercer invierno".
Escuchalos porque son válidos.
Primero: las valuaciones desconectadas de realidad. NVIDIA cotiza a múltiplos de P/E (precio/ganancias) que están en el extremo superior del espectro. Se justifica con proyecciones de demanda a largo plazo. Pero las proyecciones son estimaciones. Son frágiles. Si en 2027 la demanda de entrenamiento de IA no crece como se espera, las valuaciones caen. Fuerte.
Segundo: las promesas están en deflación. Hace dos años escuchabas hablar de "Artificial General Intelligence en 5-10 años". Hoy los mismos ejecutivos hablan de "mejoras incrementales en tareas específicas". Eso no es progreso. Es reconocer que las promesas grandes no van a llegar cuando se dijo. Es reducción de hype.
Tercero: el dinero especulativo todavía existe, pero está enfadado. Hace 18 meses, venture capital invertía en cualquier startup que mencionara "IA" sin preguntar por números. Hoy piden tracción real: usuarios verificables, ingresos, crecimiento. El dinero de riesgo se volvió cauteloso. Cuando eso sucede, muchas startups sin números desaparecen.
Cuarto: los gobiernos pueden frenar. El consumo de energía de IA es colosal. Entrenar y servir modelos grandes consume tanta electricidad como ciudades medianas. Si gobiernos deciden que es derroche o insostenible, pueden poner restricciones. Ya hay movimiento en ese sentido: regulaciones en Europa, restricciones de chips en China hacia IA, debates en US sobre sostenibilidad.
Quinto: esto se parece a booms pasados. Dot-com (2000), sistemas expertos (1987), booms inmobiliarios. Mucho dinero, demasiadas promesas, realidad que no alcanza. Entonces: crash. Invierno.
El argumento está armado. Parece plausible.
Los argumentos en contra: la diferencia estructural.
Pero existe una diferencia radical respecto a 1987 y 2000.
En 1987, si los sistemas expertos desaparecían, ¿qué perdía la gente? Investigadores perdían fondos. Corporaciones perdían dinero invertido. Pero la mayoría del mundo no dependía de que existieran. Eran niche. Especializados. Marginales en la vida cotidiana.
Hoy:
Gmail procesa 347 mil millones de emails diarios. Desde 2005, el filtro de spam usa machine learning. Eso están usando billones de personas todos los días sin pensar. Nadie lo llama "IA". Es solo que el spam no llega a tu inbox.
Google Search ha usado deep learning en su ranking durante más de una década. Cuando buscar algo en internet, estás usando modelos de lenguaje neural. Unos 8 mil millones de búsquedas por día. Google genera 280 mil millones de dólares anuales en publicidad, largely porque la búsqueda funciona. La IA es inseparable de eso.
Microsoft 365 tiene Copilot integrado en Word, Excel, PowerPoint. Millones de trabajadores corporativos lo usan. No podés sacar eso sin romper flujos de trabajo que la gente ya depende.
Transcripción automática de audio en Zoom, Teams, Fireflies. Millones de reuniones transcriptas automáticamente. Hablá durante 60 minutos, tenés texto en 10 segundos. Eso no existía hace 5 años. Ahora es estándar.
Diagnósticos médicos asistidos por IA. Radiólogos usando machine learning para detectar cáncer. Patólogos usando modelos de visión. Esto está regulado (FDA) y salvando vidas. No es especulación.
Si toda esta infraestructura fallara, el impacto sería comparable a un apagón eléctrico masivo. Económicamente insostenible. Políticamente inaceptable. Por lo tanto: muy difícil de que suceda.
Además — y esto es importante — el dinero ya no viene solo de especulación pública.
Los inviernos previos sucedieron cuando financiación era concentrada: DARPA en los 70s, venture capital especulativo en los 80s-90s.
Hoy:
- Anthropic (~5 mil millones recaudados) invierte porque empresas como Google y Salesforce usan Claude y pagan acceso.
- OpenAI genera suscripciones directas (ChatGPT Plus) y contratos corporativos.
- Google, Microsoft, Meta, Amazon tienen IA embebida en productos que generan ingresos (publicidad, productividad, recomendaciones).
- Universidades y institutos de investigación (Stanford HAI, MIT-IBM Watson Lab) continúan investigación sin depender de venture capital especulativo.
La financiación es diversificada. Si una fuente se seca, otras mantienen el campo funcionando. A diferencia de los 70s y 80s.
¿Entonces qué viene?
Probablemente una "corrección", no un invierno.
Una corrección significa: – Muchas startups marginal de IA cierran porque no tienen modelo de negocio. – El dinero de venture capital se vuelve más conservador. Solo financia empresas con PMF (product-market fit) claro. – Las acciones de mega-cap tech caen 30-40% (correcciones normales en bolsa). – Los ejecutivos hablan menos de "revoluciones" y más de "mejoras". – Las valuaciones se ajustan hacia abajo.
Pero: – La IA que ya funciona se queda. – Claude, ChatGPT, Gemini continúan evolucionando. – Empresas siguen usando IA porque ahorra dinero. – Investigadores siguen investigando.
Una corrección es un mercado que madura. Un invierno es una tecnología que fracasa.
¿Cómo sabrías cuál es cuál?
Mirá esto: si en 2026-2027 ves que startups cierran pero Gmail sigue filtrando spam, Google Search sigue funcionando, y millones de personas siguen usando Claude cada día — eso es corrección.
Si ves que todos abandonan la IA simultáneamente y desaparece de los productos que usás — eso sería invierno. Pero es muy poco probable porque demasiada gente depende de que funcione.
¿Viene otro invierno? — por qué esta vez es diferente (o no)
Imaginate que invertís en algo porque creés que va a explotar en valor.
La gente a tu alrededor también invierte. Todos creen. El precio sube. Sube más. Llovía dinero. Nadie quiere ser el que se perdió de la oportunidad del siglo.
Hasta que alguien se da cuenta: espera, ¿esto realmente vale lo que pagamos?
Entonces todos venden al mismo tiempo. El precio cae. El dinero desaparece. Y la gente que invirtió se pregunta cómo se dejó engañar.
Eso pasó en 1987 con los sistemas expertos. ¿Está pasando ahora con la IA?
Señales de que podría ser una burbuja:
NVIDIA cuesta 3 trillones de dólares. Hace tres años valía 500 mil millones. Ese crecimiento exponencial no es sostenible. En algún momento, se ajusta.
Las promesas bajaron de nivel. En 2023 escuchabas a ejecutivos hablar de "inteligencia general artificial" que vendría pronto. Ahora hablan de "mejoras incrementales". Cuando las promesas se achican, generalmente significa que el hype se está desinflando.
El dinero especulativo está frenando. Hace un año, cualquier startup que pusiera "IA" en el pitch recaudaba millones. Hoy los inversores piden números reales: usuarios, ingresos, crecimiento verificable. El dinero tonto se está yendo.
Pero hay un gran "pero":
Gmail, Google Search, Microsoft Copilot, ChatGPT, Claude — ya están en tus manos. Ya los usás. Ya funcionan.
Si el mercado de IA colapsara mañana, ¿qué pasaría? Tu email seguiría filtrando spam. Tu búsqueda seguiría funcionando. El análisis de datos en tu empresa seguiría adelante.
En 1987, si los sistemas expertos desaparecían, ¿qué perdías? Investigación académica que casi nadie usaba en la vida real. Nada más.
Hoy la IA está embebida en infraestructura que millones de personas dependen de que funcione.
Entonces, ¿viene un invierno o no?
Probablemente lo que viene es una "corrección", no un invierno.
Una corrección significa: muchas startups de IA cierran. Dinero especulativo desaparece. Las acciones de empresas de tech caen 30-40%. Las promesas de los ejecutivos se vuelven más modestas.
Pero la IA que funciona se queda. El software que usás sigue ahí. Sigue evolucionando. Generando dinero.
Lo que tenés que saber:
- Hay burbuja especulativa, eso es verdad. Las valuaciones están infladas. Algo va a explotar.
- Pero no es pura burbuja. La IA genera dinero real. Empresas reales la usan. Ahorran tiempo y dinero. Eso no desaparece.
- La diferencia: una burbuja que se corrige es diferente a un invierno que congela el campo. Uno es un mercado que se ajusta. El otro es muerte de la tecnología.
- Mirá lo que usás. Si Claude, ChatGPT o las herramientas de IA que ves todos los días dejan de existir, ahí hay invierno. Si existen pero la inversión baja y algunos startups cierran, es corrección.
¿Viene otro invierno? — por qué esta vez es diferente (o no)
Wall Street y Silicon Valley hablan idiomas diferentes en 2024-2025.
En noviembre de 2024, NVIDIA cruzó la línea de los 3 trillones de dólares de capitalización de mercado. Hace 36 meses valía 500 mil millones. Los traders de Wall Street están apostando que la demanda de chips para entrenar IA va a crecer exponencialmente por al menos otra década. Es una apuesta audaz. Posiblemente correcta. Posiblemente una ilusión.
En paralelo, en San Francisco, algunos inversores se hacen la pregunta incómoda: ¿cuánto tiempo aguanta una carrera así sin que la realidad se interponga?
Los argumentos por un "tercer invierno".
Escuchalos porque son válidos.
Primero: las valuaciones desconectadas de realidad. NVIDIA cotiza a múltiplos de P/E (precio/ganancias) que están en el extremo superior del espectro. Se justifica con proyecciones de demanda a largo plazo. Pero las proyecciones son estimaciones. Son frágiles. Si en 2027 la demanda de entrenamiento de IA no crece como se espera, las valuaciones caen. Fuerte.
Segundo: las promesas están en deflación. Hace dos años escuchabas hablar de "Artificial General Intelligence en 5-10 años". Hoy los mismos ejecutivos hablan de "mejoras incrementales en tareas específicas". Eso no es progreso. Es reconocer que las promesas grandes no van a llegar cuando se dijo. Es reducción de hype.
Tercero: el dinero especulativo todavía existe, pero está enfadado. Hace 18 meses, venture capital invertía en cualquier startup que mencionara "IA" sin preguntar por números. Hoy piden tracción real: usuarios verificables, ingresos, crecimiento. El dinero de riesgo se volvió cauteloso. Cuando eso sucede, muchas startups sin números desaparecen.
Cuarto: los gobiernos pueden frenar. El consumo de energía de IA es colosal. Entrenar y servir modelos grandes consume tanta electricidad como ciudades medianas. Si gobiernos deciden que es derroche o insostenible, pueden poner restricciones. Ya hay movimiento en ese sentido: regulaciones en Europa, restricciones de chips en China hacia IA, debates en US sobre sostenibilidad.
Quinto: esto se parece a booms pasados. Dot-com (2000), sistemas expertos (1987), booms inmobiliarios. Mucho dinero, demasiadas promesas, realidad que no alcanza. Entonces: crash. Invierno.
El argumento está armado. Parece plausible.
Los argumentos en contra: la diferencia estructural.
Pero existe una diferencia radical respecto a 1987 y 2000.
En 1987, si los sistemas expertos desaparecían, ¿qué perdía la gente? Investigadores perdían fondos. Corporaciones perdían dinero invertido. Pero la mayoría del mundo no dependía de que existieran. Eran niche. Especializados. Marginales en la vida cotidiana.
Hoy:
Gmail procesa 347 mil millones de emails diarios. Desde 2005, el filtro de spam usa machine learning. Eso están usando billones de personas todos los días sin pensar. Nadie lo llama "IA". Es solo que el spam no llega a tu inbox.
Google Search ha usado deep learning en su ranking durante más de una década. Cuando buscar algo en internet, estás usando modelos de lenguaje neural. Unos 8 mil millones de búsquedas por día. Google genera 280 mil millones de dólares anuales en publicidad, largely porque la búsqueda funciona. La IA es inseparable de eso.
Microsoft 365 tiene Copilot integrado en Word, Excel, PowerPoint. Millones de trabajadores corporativos lo usan. No podés sacar eso sin romper flujos de trabajo que la gente ya depende.
Transcripción automática de audio en Zoom, Teams, Fireflies. Millones de reuniones transcriptas automáticamente. Hablá durante 60 minutos, tenés texto en 10 segundos. Eso no existía hace 5 años. Ahora es estándar.
Diagnósticos médicos asistidos por IA. Radiólogos usando machine learning para detectar cáncer. Patólogos usando modelos de visión. Esto está regulado (FDA) y salvando vidas. No es especulación.
Si toda esta infraestructura fallara, el impacto sería comparable a un apagón eléctrico masivo. Económicamente insostenible. Políticamente inaceptable. Por lo tanto: muy difícil de que suceda.
Además — y esto es importante — el dinero ya no viene solo de especulación pública.
Los inviernos previos sucedieron cuando financiación era concentrada: DARPA en los 70s, venture capital especulativo en los 80s-90s.
Hoy:
- Anthropic (~5 mil millones recaudados) invierte porque empresas como Google y Salesforce usan Claude y pagan acceso.
- OpenAI genera suscripciones directas (ChatGPT Plus) y contratos corporativos.
- Google, Microsoft, Meta, Amazon tienen IA embebida en productos que generan ingresos (publicidad, productividad, recomendaciones).
- Universidades y institutos de investigación (Stanford HAI, MIT-IBM Watson Lab) continúan investigación sin depender de venture capital especulativo.
La financiación es diversificada. Si una fuente se seca, otras mantienen el campo funcionando. A diferencia de los 70s y 80s.
¿Entonces qué viene?
Probablemente una "corrección", no un invierno.
Una corrección significa: – Muchas startups marginal de IA cierran porque no tienen modelo de negocio. – El dinero de venture capital se vuelve más conservador. Solo financia empresas con PMF (product-market fit) claro. – Las acciones de mega-cap tech caen 30-40% (correcciones normales en bolsa). – Los ejecutivos hablan menos de "revoluciones" y más de "mejoras". – Las valuaciones se ajustan hacia abajo.
Pero: – La IA que ya funciona se queda. – Claude, ChatGPT, Gemini continúan evolucionando. – Empresas siguen usando IA porque ahorra dinero. – Investigadores siguen investigando.
Una corrección es un mercado que madura. Un invierno es una tecnología que fracasa.
¿Cómo sabrías cuál es cuál?
Mirá esto: si en 2026-2027 ves que startups cierran pero Gmail sigue filtrando spam, Google Search sigue funcionando, y millones de personas siguen usando Claude cada día — eso es corrección.
Si ves que todos abandonan la IA simultáneamente y desaparece de los productos que usás — eso sería invierno. Pero es muy poco probable porque demasiada gente depende de que funcione.
¿Viene otro invierno? — por qué esta vez es diferente (o no)
Desacoplamiento entre especulación financiera y valor técnico generado: análisis de riesgos sistémicos.
La pregunta sobre un "tercer invierno" de IA requiere primero distinguir claramente entre: (1) una corrección de valuaciones especulativas, (2) una contracción en financiación de investigación, y (3) un colapso de la tecnología subyacente. La historia sugiere que (1) es probable, (2) es posible, pero (3) es estructuralmente improbable dada la infraestructura de embebimiento actual.
Análisis de riesgos especulativos: señales de exuberancia irracional (sensu Shiller).
El mercado de IA exhibe características que han precedido correcciones previas:
- Desacoplamiento valuación-ingresos verificables.
El riesgo: si proyecciones se incumplen o se reducen, el multiple P/E se ajusta hacia la mediana histórica, implicando correcciones de 40-60% en valuación de mega-cap semiconductor.
- Heterogeneidad de casos de uso empresariales con ROI incierto.
El riesgo: si empresas realizan en 2026-2027 que la ROI de inversión en IA corporativa es inferior a promesas, presupuestos se reducen.
- Ciclos de FOMO-driven capital allocation.
- Deflación de promesas públicas de ejecutivos.
Prognóstico especulativo: corrección de 30-50% en valuaciones de mega-cap tech AI + consolidación de startups (50%+ quiebras) en 24-36 meses. Esto es normal de ciclos especulativos.
Análisis de riesgos tecnológicos: ¿Es posible un "invierno" completo?
La pregunta es: ¿una corrección especulativa = colapso de la tecnología IA (sensu primer/segundo invierno)?
Históricamente:
- Primer invierno (1974-1980): tecnología de IA resultó infeasible con arquitectura computacional disponible. La crítica de Lighthill fue técnicamente válida.
- Segundo invierno (1987-1993): sistemas expertos fueron frágiles. No generalizaban. No escalaban. La tecnología misma tenía límites fundamentales.
¿La IA moderna tiene estos límites?
No. Las diferencias estructurales son radicales:
1. Embebimiento en infraestructura crítica con efectos económicos difusivos.
- Google Search (8 mil millones búsquedas/día): Ranking está basado en deep neural networks desde ~2015+. Genera $280B USD anuales en publicidad. Desacoplar IA de Search requeriría rediseño de arquitectura fundamental. Económicamente inviable.
- Gmail (347 mil millones emails/día): Spam filtering usa ML desde 2005. Ha evoluciones hacia language models modernos. Remover IA implicaría que billones de emails no deseados llegaran a inboxes. No sucedería.
- Microsoft 365 Copilot: Integrado en Word, Excel, PowerPoint, Outlook. Millones de usuarios corporativos. Remover implicaría degradación masiva de funcionalidad en software que es estándar en enterprises. Económicamente inaceptable.
- Diagnósticos médicos: FDA-regulated computer-assisted diagnostics (CAD) en radiología, patología, oncología. Modelos de visión entrenados para detectar lesiones. Remover sería equivalente a remover radiología cuantitativa.
La diferencia vs. 1987: sistemas expertos eran niche. Podías removelos sin impacto difusivo. Hoy, remover IA de infraestructura establecida es como remover electricidad de la red.
2. Diversificación de financiación eliminando concentración.
Primer invierno: financiación concentrada en DARPA + UK government.
Segundo invierno: venture capital especulativo + corporativo limitado.
Hoy: - Anthropic: ~$5B+ recaudados; pero ingresos operacionales crecientes (empresas pagan acceso). - OpenAI: ChatGPT Plus suscripciones + contratos empresariales. - Google, Microsoft, Meta: IA embebida en productos que generan ingresos (publicidad, productivity, recomendaciones). No dependen de especulación pública. - Investigación pública: universidades (Stanford, MIT, Berkeley, CMU) continúan investigación sin depender de VC.
Si financiación especulativa se seca, investigación básica y comercial continúa porque hay múltiples fuentes.
3. Costo geopolítico de defundación es prohibitivo.
En 1974, defundar IA estadounidense era políticamente posible. El campo era marginal.
Hoy: EE.UU. vs. China en IA es juego geopolítico. Defundar IA estadounidense significaría ceder liderazgo a China en tecnología de frontera. Políticamente, es inaceptable para gobernantes. Por lo tanto, defundación masiva es unlikely.
4. Validación de casos de uso real con ROI medible.
Claude/GPT son usados por programadores para escribir código (estadísticas de GitHub Copilot: ~50% de generación de código en ciertas plataformas usa AI). Es medible, verificable.
Sistemas expertos (1987): intentaban resolver diagnosis médica. Fallaban en bordes. No había ROI.
La diferencia: la IA moderna tiene casos de uso reales donde el valor es medible. No es especulación pura.
Escenarios probabilísticos.
- Corrección especulativa + consolidación (70% probabilidad):
- Regulación gubernamental restrictiva (20% probabilidad):
- Invierno completo (10% probabilidad):
Conclusión normativa.
Para usuarios: riesgo muy bajo de que herramientas como Claude desaparezcan. Están embebidas en infraestructura. Probabilidad moderada de que precios aumenten (si hay regulación energética) o acceso se restrinja geográficamente.
Para inversores: riesgo alto en startups sin tracción verificable. Riesgo moderado en mega-cap. Oportunidad en especialización vertical (IA para dominio específico con PMF claro).
Para investigadores: financiación pública continuará (importancia geopolítica). Financiación privada se consolidará (más concentrada, menos especulativa).