por Héctor Romo-Parra
Lunes Neurocientífico

Terrence Sejnowski (n. 1947) ayudó a construir el puente entre la neurociencia y el aprendizaje automático cuando todavía no existía el “deep learning” como industria. Sus ideas —y las herramientas matemáticas que impulsó— prepararon el terreno para entender cómo pueden aprender redes de neuronas (biológicas o artificiales) y por qué el aprendizaje no es sólo “ajustar pesos”, sino organizar representaciones internas útiles.
Una escena antes del “boom”
A finales de los 70 y durante los 80, la inteligencia artificial vivía ciclos de entusiasmo y desencanto. La computación era limitada, los datasets eran pequeños y el entusiasmo por los perceptrones había sufrido un golpe (por críticas teóricas reales y por expectativas sobredimensionadas). En ese contexto, Sejnowski defendió una idea simple pero radical para la época:
- Los sistemas inteligentes pueden emerger de muchas unidades simples conectadas entre sí.
- Aprender no significa programar reglas explícitas; significa ajustar conexiones a partir de ejemplos.
- Para entender cerebros y máquinas, hay que pensar en representaciones: ¿qué “código interno” aparece cuando un sistema aprende?
El giro: redes que aprenden representaciones
Uno de los aportes más influyentes de Sejnowski fue impulsar (junto con colaboradores) el uso de métodos que hoy consideraríamos “clásicos” del aprendizaje, pero que entonces eran frontera:
- Aprendizaje en redes multicapa: mover el foco de modelos lineales a arquitecturas capaces de capturar no-linealidades.
- Optimización y generalización: no sólo “memorizar” datos, sino aprender patrones que funcionen con nuevos ejemplos.
- Modelos inspirados en neurobiología sin exigir una copia exacta del cerebro: una postura pragmática que permitió avanzar.
En pocas palabras: antes de que tuviéramos GPUs, Transformers y corpora masivos, ya estaba la pregunta esencial: ¿qué tipo de estructura interna necesita una red para resolver una tarea?
El caso emblemático: NETtalk (leer en voz alta con una red)
A mediados de los 80, el proyecto NETtalk se volvió un hito popular: una red neuronal entrenada para convertir texto en fonemas (una versión temprana del problema “texto → pronunciación”). El punto no era que fuera perfecto; el punto era lo que mostraba:
- Con ejemplos suficientes, una red podía aprender regularidades (p. ej., patrones comunes de pronunciación).
- También podía aprender excepciones de forma distribuida (no como una lista rígida de reglas).
- El aprendizaje generaba representaciones intermedias: algo parecido a “categorías internas” que no estaban programadas.
Ese tipo de demostración fue crucial: ayudó a legitimar la idea de que las redes no eran sólo juguetes, sino modelos computacionales con poder explicativo.
Sejnowski y la neurociencia computacional: el cerebro como sistema que infiere
Más allá de la IA, su trabajo empujó la noción de que el cerebro no es una colección de módulos estáticos, sino un sistema dinámico que:
- aprende a partir de experiencia,
- reduce incertidumbre,
- construye modelos internos del mundo (aunque imperfectos),
- y utiliza códigos neuronales distribuidos.
Este enfoque alimentó líneas completas de investigación en:
- codificación sensorial,
- aprendizaje sináptico,
- plasticidad,
- y modelos normativos/probabilísticos (en diálogo con redes neuronales).
¿Por qué importa hoy (en 2026)?
Porque muchas conversaciones actuales sobre IA repiten, con nuevo vocabulario, preguntas que Sejnowski ayudó a poner sobre la mesa:
- ¿Qué hace que una representación sea “buena”?
- ¿Cómo se equilibra memorizar vs generalizar?
- ¿Cómo se interpreta lo que aprende una red (interpretabilidad)?
- ¿Qué tan lejos puede llegar una aproximación “inspirada” en el cerebro sin ser biológicamente exacta?
En la práctica, entender estas raíces ayuda a evitar dos errores comunes:
- creer que el deep learning apareció “de la nada”, y
- pensar que la neurociencia no tiene nada que decirle a la IA (o viceversa).
Para llevar (una idea en una frase)
El legado de Terrence Sejnowski es haber mostrado que el aprendizaje es, sobre todo, construcción de representaciones internas: una idea central tanto para entender cerebros como para construir máquinas que aprendan.
Lectura sugerida (si quieres profundizar): busca la historia de NETtalk, y revisa entrevistas/ensayos de Sejnowski sobre la relación entre neurociencia y aprendizaje automático. Su estilo es especialmente claro para conectar intuición biológica con formalismo computacional.

Deja un comentario