Los inviernos de la IA — cuando el mundo dejó de creer
Octubre de 1973. Un reporte que cambió todo.
Sir James Lighthill, un economista británico, entregó un documento de 40 páginas al Science Research Council del Reino Unido. El título parecía académico y árido: "Artificial Intelligence: A Critical Appraisal". Pero para los investigadores de IA, fue un acta de defunción.
Lighthill escribió lo que muchos gobernantes querían escuchar: la IA no funcionaba. Las promesas de los investigadores eran humo. Habían gastado millones en investigación que no producía máquinas inteligentes. Era hora de parar.
El Reino Unido cortó la financiación ese mismo año. Estados Unidos, que había estado financiando IA masivamente a través de DARPA, hizo lo mismo. De la noche a la mañana, laboratorios cerraron. Investigadores quedaron sin trabajo. El campo que prometía revolucionar el mundo fue declarado imposible.
Pero el informe de Lighthill tenía un problema: era parcialmente correcto por las razones equivocadas.
La verdad incómoda sobre el primer invierno (1974-1980).
Lighthill no se equivocaba al decir que la IA de los 60s había fracasado. Los investigadores habían prometido máquinas superinteligentes. No llegaban. Los presupuestos se inflaban. Los resultados no seguían.
Lo que Lighthill no vio fue que mientras el mundo los ignoraba, un pequeño grupo seguía trabajando en sombra.
Geoffrey Hinton estaba en la Universidad de Toronto, investigando redes neuronales cuando su campo había sido declarado "atacado a muerto" por los críticos. Yann LeCun trabajaba en universidades francesas, explorando cómo entrenar redes profundas. Yoshua Bengio se unió años después, pero con la misma convicción: las matemáticas subyacentes eran correctas, aunque nadie las financiara.
En 1986, ocurrió algo pequeño pero transformador. Rumelhart, Hinton y Williams publicaron en Nature un paper sobre cómo entrenar redes profundas usando backpropagation. La idea no era nueva — Werbos la había desarrollado años atrás — pero ahora convergía con hardware mejor y confianza teórica sólida.
El primer invierno no terminó porque alguien "descubriera" que la IA funcionaba. Terminó porque había resultados modestos en dominios específicos (reconocimiento de caracteres, análisis de imágenes simples) y porque la infraestructura computacional mejoraba lentamente.
El segundo invierno: la promesa vacía de los sistemas expertos (1987-1993).
Los años 80 fueron raros. La IA estaba "volviendo", pero no como deep learning. Era la era de los "sistemas expertos".
La idea era seductora: toma el conocimiento de un experto humano (un médico, un abogado, un ingeniero) y códificalo en reglas que la computadora pueda aplicar. Un médico diagnostica una enfermedad si ve síntomas X, Y, Z. Registrá eso. Ahora la máquina puede diagnosticar también.
Funcionó. Funcionó demasiado bien en demostración. Las corporaciones invirtieron miles de millones. Se vendió como la revolución que finalmente había llegado.
Pero había un problema estructural: los sistemas expertos eran frágiles. Un sistema entrenado en el 80% de los casos fallaba catastróficamente en el 20% restante. Costaba millones de dólares crear. Requería expertos humanos constantemente para mantener las reglas actualizadas. No escalaba.
Hacia 1987, las empresas se dieron cuenta. Los fondos desaparecieron. Otro invierno. Otro período de 6-7 años en que la IA fue considerada imposible.
Lo que pasó en silencio mientras el mundo dudaba.
Aquí está el patrón que nadie cuenta: ambos inviernos ocurrieron mientras progreso técnico real estaba siendo construido sin fanfarria.
Entre 1974 y 1980, cuando la IA oficial estaba "muerta", Hinton y otros estaban desarrollando teoría sobre redes recurrentes. LeCun refinaba el backpropagation. Bengio exploraba arquitecturas que podrían procesar lenguaje.
Durante el segundo invierno (1987-1993), algo más pasaba. Internet empezaba a expandirse. Había datos digitales reales. Las computadoras se volvían más rápidas. Y las GPUs — procesadores originalmente diseñados para video games — estaban evolucionando de formas que eventualmente acelerarían redes neuronales por órdenes de magnitud.
¿Y a vos qué te cambia?
La lección es clara: mirá el patrón, no el ruido.
El ruido es: "¿Cree el mundo en la IA?" "¿Hay dinero especulativo?" "¿Qué promete el último CEO?"
El patrón es: "¿Hay trabajo técnico serio siendo construido?" "¿Hay resultados medibles, aunque pequeños?" "¿La gente está usando herramientas que funcionan?"
Los inviernos no mataron a la IA porque el progreso real no dependía de hype. Dependía de investigadores que sabían que estaban en lo correcto, aunque nadie los creyera.
Hoy, cuando leas titulares sobre "IA va a cambiar todo" o "IA está sobrevaluada", podes preguntarte: ¿Dónde está pasando trabajo real? ¿Qué está construyendo gente que no sale en los diarios?
La respuesta probable: en universitaries, laboratorios corporativos, y en equipos que simplemente hacen el trabajo sin buscar atención. Como siempre fue.
Los inviernos de la IA — cuando el mundo dejó de creer
Imaginate que trabajas en lo que creés que es el futuro. Tenés dinero. Tenés equipo. Tenés confianza. Y un día, alguien importante dice: "Esto no funciona. Esto nunca funcionó. Nos engañaste."
Eso pasó en 1974. Y pasó de nuevo en 1987.
Un economista británico llamado Sir James Lighthill escribió un informe demoledor: la IA no entreg resultados. Los investigadores exageraban. Era hora de cortar fondos.
Lighthill tenía razón en algo: la IA de 1974 no funcionaba como promisía. Lo que no vio fue que estaban a punto de cambiar todo. Geoffrey Hinton, Yann LeCun, Yoshua Bengio — trabajaban en universidades sin dinero, convencidos de que las redes neuronales eran el camino. Nadie les creía.
Seis años después, Hinton publicó un paper. Tres autores. Una idea simple pero poderosa sobre cómo entrenar redes profundas. No fue el acto de un genio solo. Fue el resultado de años en la sombra, sin esperanza de reconocimiento.
Luego vino la burbuja de los "sistemas expertos" (1980s). Parecía que habían hecho funcionar la IA. Las empresas gastaban millones. Hasta que no. Se rompían. No escalaban. Otro invierno. 1987-1993.
Pero mirá qué pasó: mientras todos creían que la IA estaba muerta, la computadora personal se popularizaba. Internet empezaba. Había datos reales para que las máquinas procesaran. Y cuando finalmente la gente tuvo herramientas que de verdad funcionaban — búsqueda por internet, clasificación de emails, recomendaciones — nadie cuestionó si la IA era real o no. Simplemente funcionaba.
¿Por qué cuenta esto hoy?
Porque la gente tiende a repetir los mismos ciclos. Alguien hace una promesa grande. Pasan años. La promesa no llega exactamente como se dijo. La confianza cae. El dinero se seca.
Vos, como usuario o profesional, no controlás esos ciclos. Pero podés reconocerlos.
Lo que tenés que tener claro
- La IA sobrevivió dos veces porque los que creían en ella seguían construyendo en silencio. No esperaban que el mundo les creyera. Simplemente sabían que estaban en lo correcto.
- El verdadero progreso pasó sin bullado. Mientras todos hablaban de promesas de IA, Hinton y otros estaban resolviendo problemas matemáticos fundamentales.
- Hoy es diferente porque no podés apagar lo que ya funciona. Gmail filtra spam desde 2005. Google Search usa deep learning desde hace años. Eso no desaparece porque alguien pierda confianza.
Los inviernos de la IA — cuando el mundo dejó de creer
Octubre de 1973. Un reporte que cambió todo.
Sir James Lighthill, un economista británico, entregó un documento de 40 páginas al Science Research Council del Reino Unido. El título parecía académico y árido: "Artificial Intelligence: A Critical Appraisal". Pero para los investigadores de IA, fue un acta de defunción.
Lighthill escribió lo que muchos gobernantes querían escuchar: la IA no funcionaba. Las promesas de los investigadores eran humo. Habían gastado millones en investigación que no producía máquinas inteligentes. Era hora de parar.
El Reino Unido cortó la financiación ese mismo año. Estados Unidos, que había estado financiando IA masivamente a través de DARPA, hizo lo mismo. De la noche a la mañana, laboratorios cerraron. Investigadores quedaron sin trabajo. El campo que prometía revolucionar el mundo fue declarado imposible.
Pero el informe de Lighthill tenía un problema: era parcialmente correcto por las razones equivocadas.
La verdad incómoda sobre el primer invierno (1974-1980).
Lighthill no se equivocaba al decir que la IA de los 60s había fracasado. Los investigadores habían prometido máquinas superinteligentes. No llegaban. Los presupuestos se inflaban. Los resultados no seguían.
Lo que Lighthill no vio fue que mientras el mundo los ignoraba, un pequeño grupo seguía trabajando en sombra.
Geoffrey Hinton estaba en la Universidad de Toronto, investigando redes neuronales cuando su campo había sido declarado "atacado a muerto" por los críticos. Yann LeCun trabajaba en universidades francesas, explorando cómo entrenar redes profundas. Yoshua Bengio se unió años después, pero con la misma convicción: las matemáticas subyacentes eran correctas, aunque nadie las financiara.
En 1986, ocurrió algo pequeño pero transformador. Rumelhart, Hinton y Williams publicaron en Nature un paper sobre cómo entrenar redes profundas usando backpropagation. La idea no era nueva — Werbos la había desarrollado años atrás — pero ahora convergía con hardware mejor y confianza teórica sólida.
El primer invierno no terminó porque alguien "descubriera" que la IA funcionaba. Terminó porque había resultados modestos en dominios específicos (reconocimiento de caracteres, análisis de imágenes simples) y porque la infraestructura computacional mejoraba lentamente.
El segundo invierno: la promesa vacía de los sistemas expertos (1987-1993).
Los años 80 fueron raros. La IA estaba "volviendo", pero no como deep learning. Era la era de los "sistemas expertos".
La idea era seductora: toma el conocimiento de un experto humano (un médico, un abogado, un ingeniero) y códificalo en reglas que la computadora pueda aplicar. Un médico diagnostica una enfermedad si ve síntomas X, Y, Z. Registrá eso. Ahora la máquina puede diagnosticar también.
Funcionó. Funcionó demasiado bien en demostración. Las corporaciones invirtieron miles de millones. Se vendió como la revolución que finalmente había llegado.
Pero había un problema estructural: los sistemas expertos eran frágiles. Un sistema entrenado en el 80% de los casos fallaba catastróficamente en el 20% restante. Costaba millones de dólares crear. Requería expertos humanos constantemente para mantener las reglas actualizadas. No escalaba.
Hacia 1987, las empresas se dieron cuenta. Los fondos desaparecieron. Otro invierno. Otro período de 6-7 años en que la IA fue considerada imposible.
Lo que pasó en silencio mientras el mundo dudaba.
Aquí está el patrón que nadie cuenta: ambos inviernos ocurrieron mientras progreso técnico real estaba siendo construido sin fanfarria.
Entre 1974 y 1980, cuando la IA oficial estaba "muerta", Hinton y otros estaban desarrollando teoría sobre redes recurrentes. LeCun refinaba el backpropagation. Bengio exploraba arquitecturas que podrían procesar lenguaje.
Durante el segundo invierno (1987-1993), algo más pasaba. Internet empezaba a expandirse. Había datos digitales reales. Las computadoras se volvían más rápidas. Y las GPUs — procesadores originalmente diseñados para video games — estaban evolucionando de formas que eventualmente acelerarían redes neuronales por órdenes de magnitud.
¿Y a vos qué te cambia?
La lección es clara: mirá el patrón, no el ruido.
El ruido es: "¿Cree el mundo en la IA?" "¿Hay dinero especulativo?" "¿Qué promete el último CEO?"
El patrón es: "¿Hay trabajo técnico serio siendo construido?" "¿Hay resultados medibles, aunque pequeños?" "¿La gente está usando herramientas que funcionan?"
Los inviernos no mataron a la IA porque el progreso real no dependía de hype. Dependía de investigadores que sabían que estaban en lo correcto, aunque nadie los creyera.
Hoy, cuando leas titulares sobre "IA va a cambiar todo" o "IA está sobrevaluada", podes preguntarte: ¿Dónde está pasando trabajo real? ¿Qué está construyendo gente que no sale en los diarios?
La respuesta probable: en universitaries, laboratorios corporativos, y en equipos que simplemente hacen el trabajo sin buscar atención. Como siempre fue.
Los inviernos de la IA — cuando el mundo dejó de creer
Desacoplamiento entre narrativa pública y progreso técnico: el patrón de ciclos hype-contracción.
Los "inviernos de la IA" (1974-1980 y 1987-1993) representan un fenómeno económico-institucional distinto de un simple fracaso tecnológico. Fueron períodos de contracción financiera y reasignación institucional del prestigio, ocurridos mientras progreso técnico fundamental seguía su curso sin visibilidad pública.
Primer invierno (1973-1980): la brecha entre promesa narrativa y factibilidad técnica.
El reporte de Lighthill (1973) fue una intervención política ejecutada mediante lenguaje técnico. Su argumento central: confundir "complejidad de diseño" (cuán complicado es algo de construir) con "complejidad del problema" (cuán inherentemente difícil es el problema). Las máquinas de los 60s podían jugar ajedrez (dominio acotado) pero no generalizaban a problemas nuevos.
Lighthill tenía razón. Las promesas de McCarthy, Minsky y otros de los 60s sobre máquinas superinteligentes en una década eran matemáticamente insostenibles con la arquitectura von Neumann disponible. El error no fue de dirección, sino de calendar.
La respuesta institucional fue severa: DARPA cortó fondos. UK defundió. El campo entró en lo que historiadores clasifican como "primer invierno". Pero el colapso financiero no fue total — fue redistributivo. Pequeños laboratorios (Universidad de Toronto, universidades francesas) continuaron investigación subsistenciada.
Lo que ocurrió en estos laboratorios fue técnicamente transformador:
- Hinton desarrolló arquitecturas de redes recurrentes con estructura teórica rigurosa.
- Rumelhart, Hinton, Williams (1986, Nature 323) publicaron evidencia de que backpropagation podía entrenar redes multicapa, resolviendo el problema teórico central que había bloqueado el campo desde el perceptrón.
- LeCun integró convoluciones en arquitecturas para procesar datos de imagen con invariancia espacial.
Estos avances NO fueron acelerados por financiación pública. Fueron conducidos por confianza teórica que el dinero especulativo de los 60s había erosionado.
El invierno terminó alrededor de 1980-1982 no porque se "descubriera" que la IA funcionaba, sino porque: (1) Había demostración de capacidades limitadas pero reales en dominios específicos (reconocimiento óptico de caracteres). (2) Infraestructura computacional mejoró (minicomputadoras, después PCs). (3) Dinero corporativo (no solo público) empezó a financiar aplicaciones prácticas.
Segundo invierno (1987-1993): la ilusión de generalidad en sistemas expertos.
El período 1980-1987 fue de "resurgimiento cautativo". Los sistemas expertos emergieron como aplicación comerciable: codificar reglas de decisión de expertos humanos en máquinas de inferencia.
El modelo tenía validez restringida: dominios altamente especializados, decisiones booleanas claras, bases de conocimiento que cambian lentamente. Funcionó para: - Diagnóstico médico especializado (Mycin, XCON) - Auditoría y compliance - Mantenimiento de equipamiento
El mercado de sistemas expertos alcanzó estimaciones de USD 3 mil millones en 1988 (Crevier, 1993).
Pero la promesa implicaba — aunque raramente se articulaba explícitamente — que una arquitectura de "reglas codificadas" podría escalar a dominios abiertos. No podía.
Tres problemas sistémicos:
- Ausencia de generalización. Un sistema entrenado en diagnósticos de enfermedad A con 80% de cobertura fallaba catastroficamente en el 20% restante y completamente fuera del dominio de entrenamiento.
- Explosión combinatoria en mantenimiento. Sistemas con miles de reglas desarrollaban interacciones impredecibles. El debugging requería expertise humana constante.
- Costo de adquisición de conocimiento (knowledge elicitation). Extraer reglas de expertos humanos es laborioso, costoso, y requiere continuidad. Cualquier cambio en la base de conocimiento requería recaptura completa.
Hacia 1986-1987, adopción corporativa de sistemas expertos se estancó. El ROI esperado no se materializaba. Hacia 1987-1988, financiación desapareció. Segundo invierno.
La fenomenología técnica de ambos inviernos: progreso en clandestinidad.
Históricamente, ambos inviernos coincidieron con avances técnicos no publicizados públicamente:
Primer invierno (1974-1980): - Hopfield (1982), aunque publicado al final del invierno, fue desarrollado durante él. - LeCun perfeccionaba convoluciones en redes. - Pearl (1988) desarrolló algoritmos de inferencia probabilística que resolverían las fragilidades lógicas de sistemas simbólicos tempranos. - Crecimiento exponencial de datos digitales (email, primeras bases de datos relacionales) creaban el "combustible" que entrenarían redes profundas.
Segundo invierno (1987-1993): - Bengio, LeCun, Hinton desarrollaban arquitecturas de lenguaje. - Crecimiento de internet exponencial (1990s) generaba corpus de datos sin precedentes. - GPUs (NVIDIA fundada 1993) comenzaban a existir — herramientas que acelerarían computación matricial décadas después. - Breakthroughs en estadística bayesiana y probabilidad gráfica (Bayesian Networks, Graphical Models).
El patrón: ambos inviernos fueron períodos donde financiación especulativa y hype se desinflaron, pero infraestructura técnica fundamental se fortaleció.
Mecanismo de resurgimiento: convergencia de capacidad técnica + datos + hardware.
Los inviernos terminaron cuando tres factores convergieron:
- Teoría técnica madurada. Backpropagation funcionaba. Bayesian networks funcionaban. Convoluciones funcionaban.
- Datos reales disponibles. Internet proporcionaba corpus de texto/imágenes/datos estructurados.
- Hardware suficiente. Computadoras secuenciales se volvieron rápidas. GPUs emergían.
Sin financiación especulativa, pero con estos tres factores, el campo resurgió en los 90s temprano. Deep learning — aunque no se llamara así aún — comenzó a demostrar resultados en visión y lenguaje.
Implicaciones para ciclos presentes y futuros.
La fenomenología de ciclos hype-contracción en IA sugiere que:
- Las correcciones especulativas son inevitables. Cuando promesa narrativa > capacidad técnica demostrable, sobreviene contracción.
- Pero la contracción especulativa ≠ fracaso técnico. Los inviernos ocurrieron mientras progreso técnico real se acumulaba. La narrativa colapsó; la construcción continuó.
- La resiliencia del campo depende de (a) teóricos que creen en horizontes de largo plazo, (b) acceso a datos y hardware, (c) financiación diversificada (pública + privada + corporativa).
Hoy, la IA está embebida en infraestructura crítica (Gmail, Search, Medical diagnostics). Esto proporciona: - Financiación corporativa que no depende de especulación (ingresos reales). - Datos masivos para entrenar. - Hardware (TPUs, GPUs) específicamente diseñado para esta carga. - Instituciones (universidades, laboratorios corporativos, institutos de investigación) con horizonte temporal largo.
Una corrección especulativa es probable. Un "invierno" completo es menos probable, porque la infraestructura de progreso técnico es más robusta que en 1973 o 1987.