Sesión 2: Redes neuronales — ¿Cómo ‘piensa’ la IA?
Video: Redes neuronales
Video de la sesión — próximamente
Mientras tanto, puedes seguir el recorrido guiado abajo.
Texto: Redes neuronales
Introducción
En la sesión pasada vimos algo poderoso: una máquina puede empezar a “aprender” ajustando una recta. No magia. No conciencia. Solo datos, error y una ecuación bastante familiar.
Hoy damos el siguiente paso: ¿qué pasa cuando una sola recta ya no alcanza?
Piensa en reconocer si una foto tiene un gato, separar dos grupos de puntos con formas raras, o distinguir entre una voz tranquila y una voz enojada. Ahí, una sola línea se queda corta. Necesitamos muchas mini-decisiones trabajando juntas.
Eso es una red neuronal: una colección de pequeñas unidades que reciben señales, les dan importancia distinta y colaboran para reconocer patrones más complejos.
Una red neuronal no es un cerebro digital. Es una cadena de pequeñas decisiones matemáticas que, juntas, pueden detectar patrones muy complejos.
De la recta a la neurona
La conexión con la sesión 1 es más directa de lo que parece.
En la sesión 1, la recta más simple usaba una sola entrada: ŷ = m · x + b. Una neurona artificial hace algo parecido, pero con varias entradas al mismo tiempo. Antes de ver la fórmula, vamos a construirla mentalmente.
Antes de ver la fórmula
¿Tú cómo lo harías? — Sé la neurona.
Imagina que eres una neurona y recibes tres pistas de una foto. Tu tarea: decidir si hay un gato. Mueve los deslizadores para indicar cuánto peso le das a cada pista.
puntiagudas
visibles
grandes
La recta simple de la sesión 1 usaba una entrada:
ŷ = m · x + b
Una neurona hace lo mismo pero con varias entradas al mismo tiempo:
z = w₁x₁ + w₂x₂ + w₃x₃ + b
No necesitas memorizar la fórmula. Fíjate solo en la idea: cada entrada pesa distinto, y al final la neurona decide qué tan fuerte se activa.
Puedes imaginarla como un filtro. Le llegan varias pistas, combina esas pistas y produce una salida.
Intuición central
Una neurona artificial es un filtro de señales
Cada entrada aporta algo distinto. Algunas pistas pesan mucho, otras casi nada. La neurona combina todo y responde con una señal de salida.
combina señales + decide activación
Qué estás viendo
Una sola neurona recibe varias pistas al mismo tiempo. Cada pista puede importar mucho, poco o casi nada. Las líneas animadas representan las señales viajando hacia la neurona.
Qué significa
La "inteligencia" aquí no viene de una idea mágica. Viene de combinar señales y ajustar pesos hasta que la salida se parezca a la respuesta correcta.
Una analogía útil
Si una amiga te pregunta si un video “seguro te va a gustar”, quizás usas varias pistas:
- si sale tu equipo favorito
- si dura poco
- si tiene humor
- si ya viste algo parecido ayer
Tu cerebro mezcla señales. Una neurona artificial hace algo parecido, pero con números.
¿Por qué una sola neurona no basta?
Una neurona puede detectar algo sencillo. Pero muchas tareas reales requieren varias capas de decisión.
Por ejemplo:
- una neurona puede detectar una línea o un borde
- varias neuronas juntas pueden detectar formas
- varias capas pueden empezar a reconocer ojos, ruedas, letras o voces
Eso es lo que llamamos deep learning: redes neuronales con varias capas ocultas, capaces de construir patrones complejos a partir de patrones simples.
Video recomendado — Redes Neuronales en español
Busca en YouTube: "DotCSV ¿Qué es una Red Neuronal?"
Canal: DotCSV (Carlos Santana Vivas) · ~10 min · Español
De simple a complejo
Una red es un equipo de neuronas
Las primeras capas detectan señales pequeñas. Las capas intermedias combinan esas señales. La salida final toma una decisión más completa.
Primera capa
Busca pistas pequeñas: contrastes, bordes, curvas, sonidos cortos o fragmentos de información.
Capas ocultas
Combinan varias pistas y construyen señales más útiles para el problema.
Salida
Entrega una decisión final: clase, predicción o probabilidad.
Qué estás viendo
Una red neuronal organiza neuronas en capas: entrada, capas ocultas y salida.
Qué significa
La potencia del deep learning no viene de una sola neurona "genial", sino de muchísimas neuronas sencillas coordinadas.
“Deep” no significa “misterioso” o “casi humano”. Solo significa que la red tiene varias capas y, por lo tanto, puede construir representaciones más complejas.
Entrenamiento vs. inferencia
Aquí aparece una diferencia importantísima.
Entrenamiento es la etapa larga y costosa en la que el modelo practica con muchísimos ejemplos y va ajustando sus pesos. Inferencia es la etapa rápida en la que ya usa lo aprendido para responder una nueva pregunta.
Una analogía útil:
- entrenamiento es practicar durante semanas para aprender una canción
- inferencia es tocarla cuando ya te la sabes
La práctica toma tiempo. La ejecución final puede ser rapidísima.
Es el mecanismo que permite “repartir la culpa” del error hacia atrás en la red para ajustar los pesos. No hace falta dominar la matemática hoy. Quédate con la idea: la red compara su respuesta con la correcta y luego corrige miles de pequeñas conexiones internas.
Laboratorio guiado: TensorFlow Playground
No vamos a programar una red desde cero. Vamos a verla aprender en tiempo real — y tu objetivo es ganarle.
Práctica interactiva
🏆 RetoTensorFlow Playground — ¿puedes domarlo?
Tienes un objetivo concreto. Usa las herramientas del Playground para lograrlo con la red más pequeña posible.
Objetivo del reto
Logra que el error de prueba (Test loss) baje de 0.05 en el dataset de espirales, usando la red más pequeña que puedas. ¿Con cuántas neuronas lo consigues?
Empieza fácil
Selecciona el dataset de dos grupos separados. Una red pequeña (1 capa, 2 neuronas) debe ser suficiente. Verifica que el error baje.
Sube la dificultad
Cambia al dataset de espirales. Intenta resolverlo con la misma red pequeña. ¿Qué pasa con la frontera de decisión?
Encuentra el mínimo
Agrega capas y neuronas de una en una. ¿Cuál es la red más pequeña con la que logras el objetivo de error < 0.05?
Qué mover
Número de capas, número de neuronas, tipo de datos y tasa de aprendizaje.
Qué mirar
Cómo cambia la frontera entre clases y si el error (Test loss) baja o sube.
La lección oculta
Más complejidad ayuda a veces, pero no siempre. No todo se resuelve "poniendo más IA".
Qué estás viendo
Un laboratorio visual donde la red cambia internamente mientras intenta separar grupos de datos.
Qué significa
Aprender no es "entender el mundo" como humano. Es encontrar una configuración de conexiones que reduzca el error en una tarea.
2012: el año que cambió todo
Dato de impacto · ImageNet 2012
Consecuencia directa: todo lo que usas hoy — filtros de Instagram, búsqueda por imágenes, reconocimiento de voz, traducción automática, ChatGPT — tiene sus raíces en ese momento. Cuando tienes suficientes datos, capacidad de cómputo y una buena arquitectura, el rendimiento puede cambiar de forma dramática.
¿Las máquinas realmente “entienden”?
Esta es una de las preguntas más interesantes del curso.
Cuando una red neuronal reconoce un gato, no está pensando “qué bonito animal”. No sabe lo que un gato significa para ti. Lo que aprendió fue que ciertos patrones de píxeles aparecen una y otra vez junto a la etiqueta “gato”.
Eso no es lo mismo que la comprensión humana. Pero tampoco es trivial. Es una forma muy poderosa de reconocer regularidades.
Si una máquina aprende a detectar patrones mejor que una persona en una tarea específica, ¿dirías que “entiende” algo o solo que se volvió muy buena para acertar?
La idea central de esta sesión
Si tuvieras que quedarte con una sola cosa de hoy, sería esta:
La red neuronal es la continuación natural de lo que ya viste: si una recta era una decisión matemática simple, una red neuronal es muchas decisiones simples trabajando en equipo.
Recursos para explorar más
- TensorFlow Playground — para ver redes neuronales aprender en tiempo real
- Teachable Machine — para entrenar modelos sencillos sin código
- 3Blue1Brown: But what is a neural network? — explicación visual excelente (inglés con subtítulos)
- DotCSV en YouTube — busca “¿Qué es una Red Neuronal?” para la versión en español