¿Por qué importa la historia?

No hace falta ser historiador para entender la IA, pero saber de dónde viene ayuda a entender dónde estamos. La IA no apareció de golpe con ChatGPT — lleva 70 años de evolución, con éxitos espectaculares y fracasos estrepitosos.

1950: Alan Turing y la pregunta clave

Todo empieza con una pregunta sencilla: "¿Puede una máquina pensar?"

Alan Turing, matemático británico considerado el padre de la informática, propuso en 1950 lo que hoy conocemos como el Test de Turing: si una persona habla con una máquina y no puede distinguir si las respuestas vienen de un humano o de una máquina, entonces la máquina se puede considerar “inteligente”.

Turing no llegó a ver ninguna IA funcional — murió en 1954. Pero plantó la semilla.

1956-1970: La euforia inicial

En 1956, un grupo de científicos se reunieron en la Universidad de Dartmouth y acuñaron el término “Inteligencia Artificial”. Estaban convencidos de que en una generación tendrían máquinas tan inteligentes como humanos.

Aquellos primeros años fueron de optimismo desbordado. Se crearon programas que podían jugar al ajedrez, resolver problemas lógicos y mantener conversaciones básicas. ELIZA (1966), un programa que simulaba ser un psicoterapeuta, sorprendió a mucha gente — aunque simplemente reformulaba lo que le decías como pregunta.

1970-1980: El primer invierno

El optimismo se estrelló contra la realidad. Los ordenadores de los 70 eran demasiado lentos y tenían demasiada poca memoria para hacer nada realmente inteligente. Los gobiernos recortaron la financiación porque las promesas no se cumplían.

Esto se conoce como el primer invierno de la IA — un periodo de desilusión donde casi nadie quería invertir en IA.

1980-1990: Sistemas expertos y el segundo intento

En los 80, la IA revivió con los sistemas expertos: programas con reglas escritas a mano por expertos humanos. Por ejemplo, un sistema experto médico tenía miles de reglas del tipo “si el paciente tiene fiebre Y tos Y dificultad para respirar, entonces considerar neumonía”.

Funcionaron en campos muy específicos, pero tenían un problema fundamental: cada regla había que escribirla manualmente. A medida que el dominio se hacía complejo, mantener las reglas era insostenible.

1990-2000: El segundo invierno

Los sistemas expertos mostraron sus limitaciones. La financiación se volvió a recortar. La IA volvió a caer en descrédito. Segundo invierno.

Mientras tanto, en silencio, unos investigadores trabajaban en una idea diferente: en lugar de programar reglas a mano, ¿y si dejáramos que la máquina aprendiese de los ejemplos? Esto se llamaba Machine Learning — aprendizaje automático.

2012: La revolución del Deep Learning

El punto de inflexión llegó en 2012, cuando un sistema de Deep Learning ganó la competición ImageNet de reconocimiento de imágenes con un margen brutal sobre todos los métodos anteriores.

La clave fue la combinación de tres cosas que no existían juntas hasta entonces:

  • Datos masivos — Internet había generado cantidades enormes de texto, imágenes y vídeos
  • GPUs potentes — las tarjetas gráficas de videojuegos resultaban ser perfectas para entrenar redes neuronales
  • Algoritmos mejorados — redes neuronales con muchas capas (“profundas”) que podían aprender patrones complejos

A partir de 2012, la IA no ha parado de crecer.

2017: La arquitectura Transformer

Un paper de Google titulado “Attention Is All You Need” presentó la arquitectura Transformer — la base de todos los modelos de lenguaje modernos. Sin este paper, no existirían ni GPT, ni Claude, ni Gemini.

Los Transformers resolvieron un problema clave: cómo procesar secuencias largas de texto de manera eficiente y paralela. Antes, los modelos leían el texto palabra por palabra. Los Transformers pueden “ver” todo el texto de golpe y decidir a qué partes prestar atención.

2022: ChatGPT y la explosión

En noviembre de 2022, OpenAI lanzó ChatGPT — y lo cambió todo. No era el primer chatbot, ni el primer LLM, ni siquiera el modelo más potente del momento. Pero fue el primero que cualquier persona podía probar gratis en el navegador.

En 5 días llegó a 1 millón de usuarios. En 2 meses, a 100 millones. La IA pasó de ser un tema de laboratorio a ser tema de conversación en el bar.

2023-2026: La carrera actual

Desde ChatGPT, la carrera ha sido vertiginosa:

  • Anthropic lanzó Claude, con énfasis en seguridad y utilidad
  • Google respondió con Gemini
  • Meta apostó por el open source con LLaMA
  • Mistral emergió como la alternativa europea
  • DeepSeek y otros modelos chinos demostraron que la innovación es global

Hoy, los modelos no solo generan texto — entienden imágenes, audio y vídeo. Y con la aparición de frameworks como OpenClaw, cualquier persona puede tener su propio agente de IA funcionando.

El patrón de los inviernos y veranos

Si observas la historia, ves un patrón claro: euforia → promesas exageradas → decepción → invierno → nueva tecnología → euforia.

¿Estamos en un verano de la IA? Probablemente. ¿Vendrá otro invierno? Quizás, pero con una diferencia: esta vez la IA ya está integrada en productos que millones de personas usan cada día. No es fácil “desinstalar” algo que ya ha cambiado cómo trabajamos.

Conceptos clave de hoy

  • Test de Turing: Si no puedes distinguir una máquina de un humano en una conversación, la máquina es “inteligente”
  • Invierno de la IA: Periodo de desilusión donde se recorta la inversión en IA (ha habido dos)
  • Deep Learning: Aprendizaje automático con redes neuronales profundas (muchas capas)
  • Transformer: La arquitectura que hizo posibles los LLM modernos (2017)
  • Machine Learning: Hacer que las máquinas aprendan de los ejemplos en lugar de programarlas regla por regla

Próxima lección: Tipos de IA — cómo clasificamos las máquinas inteligentes.