Historia de la inteligencia artificial — de Turing a tu bolsillo
Imaginá esto: diez científicos se encierran en una universidad de Estados Unidos en el verano de 1956. La apuesta es absurda — que una máquina puede pensar. Les dan 7.500 dólares. No lo logran. Pero esa reunión, la conferencia de Dartmouth, le pone nombre a todo: inteligencia artificial.
La idea ya flotaba antes. En 1950, Alan Turing — el matemático que ayudó a ganar la Segunda Guerra descifrando los códigos nazis — escribió una pregunta que nadie había hecho en voz alta: ¿puede una máquina pensar? No dio una respuesta. Dio un test: si hablás con una máquina y no podés distinguirla de un humano, entonces algo interesante está pasando. Ese test sigue vigente hoy.
Los primeros años fueron pura euforia. Los investigadores prometieron máquinas inteligentes en 20 años. No llegaron. Las computadoras de los 60 no daban. Cuando los gobiernos vieron que las promesas no se cumplían, cortaron la plata. Así arrancó el primer "invierno de la IA" — un período donde casi nadie quería financiar el campo.
Hubo dos inviernos. El segundo fue en los 80. Pero cada vez que la IA caía, alguien encontraba una forma nueva de empujar un poco más lejos.
El salto de verdad llegó en la década de 2010. Tres cosas se juntaron al mismo tiempo: montañas de datos en internet, computadoras brutalmente más potentes, y una técnica llamada deep learning que le permitió a las máquinas aprender solas de esos datos. En 2012, una red neuronal arrasó en un concurso de reconocimiento de imágenes. La industria prestó atención.
En noviembre de 2022, OpenAI lanzó ChatGPT. Cien millones de usuarios en dos meses — a Instagram le llevó dos años y medio. La IA dejó de ser un tema de laboratorio y se convirtió en algo que tu tía usa para escribir emails.
Hoy, cuando abrís Claude en tu celular, estás usando el resultado de 70 años de trabajo, fracasos y apuestas locas.
¿Y por qué te importa esto? Porque la herramienta que usás todos los días no apareció de la nada. Entender de dónde viene te ayuda a entender qué puede hacer, dónde falla y hacia dónde va.
Historia de la inteligencia artificial — de Turing a tu bolsillo
7.500 dólares y una ambición descomunal.
Verano de 1956. John McCarthy — un matemático joven con más ambición que presupuesto — convence a nueve colegas de encerrarse dos meses en el Dartmouth College de New Hampshire. La propuesta que escribió para conseguir la financiación decía, textualmente, que iban a resolver el problema de hacer que una máquina piense.
No lo resolvieron. Pero de esa reunión salió el nombre "inteligencia artificial" y un campo de investigación que cambiaría todo.
La pregunta que arrancó todo (1950)
Seis años antes, Alan Turing había planteado la pregunta fundacional. En su paper "Computing Machinery and Intelligence", publicado en la revista Mind de Oxford, propuso lo que hoy se conoce como el Test de Turing: si conversás con una máquina y no podés distinguirla de un humano, ¿tiene sentido decir que piensa?
Turing no filosofaba en el vacío. Había construido las bases de la computación moderna descifrando Enigma durante la guerra. Para él, la pregunta era la consecuencia lógica de lo que ya estaba viendo.
Euforia, promesas y el primer golpe (1956–1974)
Los primeros años fueron de optimismo descontrolado. Herbert Simon predijo que en 10 años una computadora sería campeona de ajedrez. Marvin Minsky escribió que en una generación la inteligencia artificial estaría "sustancialmente resuelta".
ELIZA apareció en 1966 — un programa del MIT que simulaba ser terapeuta con trucos de reconocimiento de patrones. Funcionaba tan bien que algunos pacientes se abrían emocionalmente con la máquina. Pero las computadoras de la época no tenían la potencia para ir más lejos. Cuando los gobiernos vieron que las promesas no se cumplían, cortaron todo. El informe Lighthill de 1973 en el Reino Unido fue demoledor: dijo que la IA no servía. Arrancó el primer invierno.
Sistemas expertos y el segundo colapso (1980–1993)
La IA resurgió en los 80 con otro enfoque: sistemas expertos. Programas que codificaban el conocimiento de un especialista en reglas explícitas. MYCIN diagnosticaba infecciones, XCON configuraba pedidos de computadoras. Japón apostó fuerte con su programa Fifth Generation Computer.
Pero los sistemas eran frágiles. Funcionaban en su dominio y se rompían apenas salían de él. Costaban millones de mantener. Cuando quedó claro que no escalaban, la financiación se secó otra vez. Segundo invierno.
La revolución silenciosa (1993–2017)
Mientras el mundo creía que la IA estaba muerta, tres investigadores seguían trabajando en redes neuronales: Geoffrey Hinton en Toronto, Yann LeCun en NYU, Yoshua Bengio en Montreal. Casi nadie les prestaba atención.
Su apuesta era simple: con suficientes capas de neuronas artificiales (deep learning), suficientes datos y suficiente potencia de cómputo, las redes iban a funcionar. Internet les dio los datos. Las GPUs — chips diseñados para videojuegos — les dieron la potencia.
En 2012, la red AlexNet de Hinton ganó el concurso ImageNet de reconocimiento de imágenes por un margen brutal. La industria se despertó. Google compró DeepMind en 2014. En 2016, AlphaGo de DeepMind venció al campeón mundial de Go — un juego con más posiciones posibles que átomos en el universo.
En 2017, un equipo de Google publicó "Attention Is All You Need" en NeurIPS — el paper que introdujo la arquitectura Transformer. Esa arquitectura es la base de todo lo que usás hoy: GPT, Claude, Gemini, Llama.
La explosión (2022–hoy)
Noviembre de 2022. OpenAI lanza ChatGPT. Cien millones de usuarios en dos meses. Anthropic lanza Claude. Google responde con Gemini. Meta libera Llama. Microsoft mete IA en todo Office.
En tres años, la IA pasó de tema de conferencias a infraestructura cotidiana. Lo que Turing imaginó en 1950 como un experimento mental se acerca más cada día.
¿Y todo eso empezó con diez tipos encerrados en New Hampshire con 7.500 dólares? Sí. Exactamente así.
Historia de la inteligencia artificial — de Turing a tu bolsillo
La pregunta detrás de todo
La propuesta original de la conferencia de Dartmouth tiene una línea que hoy suena entre profética y absurda: "Proponemos que un grupo de 10 personas estudie el problema durante 2 meses bajo la conjetura de que todo aspecto del aprendizaje o de la inteligencia puede, en principio, describirse con tanta precisión que una máquina puede simularlo."
Dos meses. Diez personas. Un problema que 70 años después sigue sin resolverse del todo. Pero la dirección era correcta. Y lo que pasó entre 1956 y hoy no es una línea recta — es una historia de ciclos brutales: euforia seguida de abandono, promesas incumplidas seguidas de descubrimientos que nadie esperaba.
Los fundamentos: antes de que existiera el nombre (1936–1956)
Antes de Dartmouth, las bases teóricas ya estaban. Alonzo Church y Alan Turing demostraron independientemente en 1936 que cualquier cómputo puede expresarse como una secuencia de operaciones simples — la tesis Church-Turing, publicada en los Proceedings of the London Mathematical Society.
Warren McCulloch y Walter Pitts publicaron en 1943 el primer modelo matemático de una neurona artificial en el Bulletin of Mathematical Biology. Mostraron que redes de neuronas simples podían, en teoría, computar cualquier función lógica. Era matemática pura — faltaban décadas para que el hardware pudiera ejecutarla.
Turing llevó la pregunta más lejos en 1950 con "Computing Machinery and Intelligence", publicado en Mind. No solo propuso su test: argumentó sistemáticamente contra cada objeción a la máquina pensante — la teológica, la matemática de Gödel, la de la conciencia. Lo que no podía prever era cuánto poder de cómputo iba a hacer falta para pasar de la teoría a la práctica. Esa brecha entre "en principio es posible" y "en la práctica funciona" definió los siguientes 60 años.
La edad dorada y sus espejismos (1956–1974)
Dartmouth produjo un campo de investigación, no un producto. Pero los investigadores hablaban como si el producto estuviera a la vuelta de la esquina. Herbert Simon declaró en 1957 que en 10 años una máquina sería campeona mundial de ajedrez — tardó 40. Marvin Minsky escribió en 1967 que "en una generación el problema de la inteligencia artificial estará sustancialmente resuelto."
Los primeros programas eran impresionantes para la época. Logic Theorist de Newell y Simon demostró teoremas matemáticos en 1956. ELIZA de Weizenbaum en el MIT mostró en 1966 que un programa podía simular conversación con reglas de pattern matching — un truco que revelaba más sobre psicología humana que sobre inteligencia artificial. El Perceptron de Frank Rosenblatt aprendía a clasificar patrones.
El freno fue doble. Hardware: las computadoras de los 60 tenían la potencia de una calculadora moderna. Teoría: en 1969, Minsky y Papert publicaron "Perceptrons", demostrando matemáticamente las limitaciones de las redes neuronales de una sola capa. El libro era correcto en su análisis pero devastador en su impacto — frenó la investigación en redes neuronales por más de una década.
El informe Lighthill de 1973 para el Science Research Council británico recomendó cortar la financiación pública. DARPA en Estados Unidos hizo lo mismo. Primer invierno.
Sistemas expertos y el segundo colapso (1980–1993)
La IA resurgió en los 80 con un enfoque distinto: sistemas expertos. Enormes árboles de reglas del tipo "si el paciente tiene fiebre Y dolor de garganta Y manchas blancas, ENTONCES considerar amigdalitis." MYCIN diagnosticaba enfermedades infecciosas. XCON configuraba pedidos para Digital Equipment Corporation y le ahorraba 40 millones de dólares al año.
Japón apostó fuerte con su programa Fifth Generation Computer en 1982 — el equivalente a 850 millones de dólares actuales para construir computadoras que razonaran con lógica. Estados Unidos respondió con MCC y DARPA Strategic Computing Initiative. Europa lanzó ESPRIT.
Pero los sistemas expertos tenían fragilidades estructurales: cada regla había que programarla a mano, no escalaban, y se rompían apenas el problema salía un milímetro de su dominio previsto. Cuando el Fifth Generation no produjo la revolución prometida, la financiación volvió a secarse. Segundo invierno, 1987–1993.
La travesía del desierto y el ascenso del deep learning (1993–2017)
En paralelo, Judea Pearl publicó en 1988 "Probabilistic Reasoning in Intelligent Systems", introduciendo notación y algoritmos para razonamiento probabilístico que eventualmente reemplazarían la lógica rígida de los sistemas expertos.
Pero la revolución real vino de tres investigadores que trabajaban en redes neuronales cuando casi nadie las tomaba en serio. Geoffrey Hinton en Toronto, Yann LeCun en NYU y Bell Labs, Yoshua Bengio en Montreal. Su argumento: las redes de una capa de Minsky fallaban por ser superficiales. Con múltiples capas (deep learning) y suficientes datos, podían aprender representaciones complejas. Rumelhart, Hinton y Williams ya habían demostrado en 1986 en Nature que el backpropagation podía entrenar redes profundas.
Faltaban dos ingredientes: datos masivos e internet los proveyó. Potencia de cómputo y las GPUs — chips diseñados para renderizar videojuegos pero ideales para las multiplicaciones matriciales de redes neuronales — la entregaron.
El punto de inflexión fue ImageNet 2012. La red AlexNet de Hinton redujo el error de reconocimiento de imágenes del 26% al 15% — un salto descomunal en un campo donde las mejoras eran de décimas. A partir de ahí, deep learning dejó de ser nicho académico.
Google compró DeepMind en 2014 por 500 millones de dólares. En 2016, AlphaGo de DeepMind venció a Lee Sedol en Go — un hito publicado en Nature que demostró que las redes neuronales podían dominar problemas de complejidad combinatoria extrema.
En 2017, "Attention Is All You Need" de Vaswani y colegas en Google, presentado en NeurIPS, introdujo la arquitectura Transformer. La innovación: reemplazar las redes recurrentes por mecanismos de atención que procesan secuencias enteras en paralelo. Esa arquitectura es la base de GPT, de Claude, de Gemini, de Llama — de todo lo que usás hoy.
La explosión generativa (2018–2026)
GPT-1 en 2018. GPT-2 en 2019 — OpenAI dudó en publicarlo por miedo a su potencial de desinformación. GPT-3 en 2020 con 175 mil millones de parámetros, publicado en NeurIPS como "Language Models are Few-Shot Learners" por Brown y colegas. Cada versión era órdenes de magnitud más grande, y la calidad mejoraba de formas que desafiaban lo que la comunidad creía posible.
Noviembre de 2022: ChatGPT. Cien millones de usuarios en dos meses — el producto de consumo con adopción más rápida de la historia según datos del Stanford AI Index Report. Anthropic — fundada en 2021 por Dario y Daniela Amodei con enfoque en seguridad y alineación — lanzó Claude. Google respondió con Bard, luego Gemini. Meta liberó Llama como modelo abierto. Microsoft invirtió 13 mil millones en OpenAI.
El Stanford AI Index 2024 reportó que la inversión privada global en IA alcanzó 67 mil millones de dólares. Las empresas del Fortune 500 mencionaron "IA" en sus earnings calls más que cualquier otro término tecnológico por primera vez en la historia.
¿Qué te dice esta historia?
El progreso de la IA no es lineal. Es cíclico. Cada vez que la industria prometió demasiado y entregó menos, hubo un retroceso. Pero cada invierno dejó descubrimientos que florecieron después — las redes neuronales de Hinton sobrevivieron al primer invierno, el backpropagation al segundo, y los Transformers emergieron de décadas de trabajo silencioso.
La diferencia hoy es que la IA está empotrada en productos que millones de personas usan. No es especulación de laboratorio. Es infraestructura.
La pregunta no es si la IA va a seguir avanzando — eso es casi seguro. La pregunta es a qué velocidad, con qué sobresaltos, y quién va a estar parado cuando la próxima curva llegue. ¿Vos dónde te ves en esa curva?