Sesión 2: Redes neuronales — ¿Cómo ‘piensa’ la IA?

Bloque 1 · Fundamentos + Ética
2 de 15
📅 Mayo de 2026 ⏱ 45 minutos Ver programa completo →

Video: Redes neuronales

Video de la sesión — próximamente

Mientras tanto, puedes seguir el recorrido guiado abajo.


Texto: Redes neuronales


Introducción

En la sesión pasada vimos algo poderoso: una máquina puede empezar a “aprender” ajustando una recta. No magia. No conciencia. Solo datos, error y una ecuación bastante familiar.

Hoy damos el siguiente paso: ¿qué pasa cuando una sola recta ya no alcanza?

Piensa en reconocer si una foto tiene un gato, separar dos grupos de puntos con formas raras, o distinguir entre una voz tranquila y una voz enojada. Ahí, una sola línea se queda corta. Necesitamos muchas mini-decisiones trabajando juntas.

Eso es una red neuronal: una colección de pequeñas unidades que reciben señales, les dan importancia distinta y colaboran para reconocer patrones más complejos.

La idea clave

Una red neuronal no es un cerebro digital. Es una cadena de pequeñas decisiones matemáticas que, juntas, pueden detectar patrones muy complejos.


De la recta a la neurona

La conexión con la sesión 1 es más directa de lo que parece.

En la sesión 1, la recta más simple usaba una sola entrada: ŷ = m · x + b. Una neurona artificial hace algo parecido, pero con varias entradas al mismo tiempo. Antes de ver la fórmula, vamos a construirla mentalmente.

Antes de ver la fórmula

¿Tú cómo lo harías? — Sé la neurona.

Imagina que eres una neurona y recibes tres pistas de una foto. Tu tarea: decidir si hay un gato. Mueve los deslizadores para indicar cuánto peso le das a cada pista.

🐱 Orejas
puntiagudas
algo
😺 Bigotes
visibles
algo
👁️ Ojos
grandes
algo
Señal combinada:
Mueve los deslizadores…
Eso que acabas de hacer es exactamente la fórmula de abajo. Cada pista es una entrada (x), el peso que le diste es un número (w), y la señal combinada es la suma de todos. La fórmula solo pone eso en notación matemática.
La fórmula detrás del reto

La recta simple de la sesión 1 usaba una entrada:

ŷ = m · x + b

Una neurona hace lo mismo pero con varias entradas al mismo tiempo:

z = w₁x₁ + w₂x₂ + w₃x₃ + b

No necesitas memorizar la fórmula. Fíjate solo en la idea: cada entrada pesa distinto, y al final la neurona decide qué tan fuerte se activa.

🔢 Desglose de la fórmula — ¿qué significa cada parte? haz clic para ver
z = w₁x₁ + w₂x₂ + w₃x₃ + b
1

Las entradas: x₁, x₂, x₃

Son los datos que llegan a la neurona. En el reto de arriba, las entradas eran las tres pistas: orejas, bigotes y ojos. En una red real, pueden ser píxeles de una imagen, frecuencias de audio, o cualquier dato numérico.

x₁ = ¿orejas puntiagudas? → 0 (no) a 1 (sí)
2

Los pesos: w₁, w₂, w₃

Son los números que dicen cuánto importa cada entrada. Un peso alto significa "esta pista cuenta mucho". Un peso cercano a 0 significa "esta pista casi no importa". Son exactamente los deslizadores que moviste en el reto.

w₁ = 0.9 → las orejas importan mucho
3

La suma ponderada: w₁x₁ + w₂x₂ + w₃x₃

Multiplicamos cada entrada por su peso y sumamos todo. Es literalmente lo que hiciste mentalmente: "orejas puntiagudas cuentan mucho, bigotes cuentan algo… sumo todo y obtengo una señal total."

0.9×1 + 0.5×1 + 0.3×0 = 1.4
4

El sesgo: b

Es un número extra que ajusta el nivel base de activación, independientemente de las entradas. Imagínalo como tu "predisposición": si ya de inicio esperas ver gatos en las fotos que te llegan, tu umbral baja. Si rara vez ves gatos, el umbral sube.

b = −0.8 → hace la neurona más exigente
5

La señal resultante: z

Es la suma final. Después, la neurona pasa este número por una función de activación que decide si "se enciende" (activa) o no. Si z es suficientemente alto: la neurona responde fuerte. Si z es bajo: la neurona permanece silenciosa.

z = 1.4 + (−0.8) = 0.6 → la neurona se activa

Puedes imaginarla como un filtro. Le llegan varias pistas, combina esas pistas y produce una salida.

Intuición central

Una neurona artificial es un filtro de señales

Cada entrada aporta algo distinto. Algunas pistas pesan mucho, otras casi nada. La neurona combina todo y responde con una señal de salida.

Entradas
Orejas puntiagudas
Bigotes
Ojos grandes
Neurona
Σ

combina señales + decide activación

Salida
"Probablemente es un gato"
Qué estás viendo

Una sola neurona recibe varias pistas al mismo tiempo. Cada pista puede importar mucho, poco o casi nada. Las líneas animadas representan las señales viajando hacia la neurona.

Qué significa

La "inteligencia" aquí no viene de una idea mágica. Viene de combinar señales y ajustar pesos hasta que la salida se parezca a la respuesta correcta.

Una analogía útil

Si una amiga te pregunta si un video “seguro te va a gustar”, quizás usas varias pistas:

  • si sale tu equipo favorito
  • si dura poco
  • si tiene humor
  • si ya viste algo parecido ayer

Tu cerebro mezcla señales. Una neurona artificial hace algo parecido, pero con números.


¿Por qué una sola neurona no basta?

Una neurona puede detectar algo sencillo. Pero muchas tareas reales requieren varias capas de decisión.

Por ejemplo:

  • una neurona puede detectar una línea o un borde
  • varias neuronas juntas pueden detectar formas
  • varias capas pueden empezar a reconocer ojos, ruedas, letras o voces

Eso es lo que llamamos deep learning: redes neuronales con varias capas ocultas, capaces de construir patrones complejos a partir de patrones simples.

Video recomendado — Redes Neuronales en español

Busca en YouTube: "DotCSV ¿Qué es una Red Neuronal?"
Canal: DotCSV (Carlos Santana Vivas) · ~10 min · Español

🔍 Próximamente embebido aquí

De simple a complejo

Una red es un equipo de neuronas

Las primeras capas detectan señales pequeñas. Las capas intermedias combinan esas señales. La salida final toma una decisión más completa.

Entrada
x1
x2
x3
x4
Capa oculta 1
Capa oculta 2
Salida
gato / no gato
Primera capa

Busca pistas pequeñas: contrastes, bordes, curvas, sonidos cortos o fragmentos de información.

Capas ocultas

Combinan varias pistas y construyen señales más útiles para el problema.

Salida

Entrega una decisión final: clase, predicción o probabilidad.

Qué estás viendo

Una red neuronal organiza neuronas en capas: entrada, capas ocultas y salida.

Qué significa

La potencia del deep learning no viene de una sola neurona "genial", sino de muchísimas neuronas sencillas coordinadas.

Ojo con la palabra “deep”

“Deep” no significa “misterioso” o “casi humano”. Solo significa que la red tiene varias capas y, por lo tanto, puede construir representaciones más complejas.


Entrenamiento vs. inferencia

Aquí aparece una diferencia importantísima.

Entrenamiento es la etapa larga y costosa en la que el modelo practica con muchísimos ejemplos y va ajustando sus pesos. Inferencia es la etapa rápida en la que ya usa lo aprendido para responder una nueva pregunta.

Datos de ejemplo Predicción inicial Error Ajuste de pesos Repetir muchas veces
Nuevo dato Pasa por la red Respuesta inmediata

Una analogía útil:

  • entrenamiento es practicar durante semanas para aprender una canción
  • inferencia es tocarla cuando ya te la sabes

La práctica toma tiempo. La ejecución final puede ser rapidísima.

¿Y el backpropagation?

Es el mecanismo que permite “repartir la culpa” del error hacia atrás en la red para ajustar los pesos. No hace falta dominar la matemática hoy. Quédate con la idea: la red compara su respuesta con la correcta y luego corrige miles de pequeñas conexiones internas.


Laboratorio guiado: TensorFlow Playground

No vamos a programar una red desde cero. Vamos a verla aprender en tiempo real — y tu objetivo es ganarle.

Práctica interactiva

🏆 Reto

TensorFlow Playground — ¿puedes domarlo?

Tienes un objetivo concreto. Usa las herramientas del Playground para lograrlo con la red más pequeña posible.

Objetivo del reto

Logra que el error de prueba (Test loss) baje de 0.05 en el dataset de espirales, usando la red más pequeña que puedas. ¿Con cuántas neuronas lo consigues?

Paso 1
Empieza fácil

Selecciona el dataset de dos grupos separados. Una red pequeña (1 capa, 2 neuronas) debe ser suficiente. Verifica que el error baje.

Paso 2
Sube la dificultad

Cambia al dataset de espirales. Intenta resolverlo con la misma red pequeña. ¿Qué pasa con la frontera de decisión?

Paso 3
Encuentra el mínimo

Agrega capas y neuronas de una en una. ¿Cuál es la red más pequeña con la que logras el objetivo de error < 0.05?

Qué mover

Número de capas, número de neuronas, tipo de datos y tasa de aprendizaje.

Qué mirar

Cómo cambia la frontera entre clases y si el error (Test loss) baja o sube.

La lección oculta

Más complejidad ayuda a veces, pero no siempre. No todo se resuelve "poniendo más IA".

Qué estás viendo

Un laboratorio visual donde la red cambia internamente mientras intenta separar grupos de datos.

Qué significa

Aprender no es "entender el mundo" como humano. Es encontrar una configuración de conexiones que reduzca el error en una tarea.


2012: el año que cambió todo

Dato de impacto · ImageNet 2012

2012 El año del quiebre
26%→16% Error en clasificación de imágenes · un salto en un año
3 Ingredientes: más datos + GPUs + mejor arquitectura
AlexNet El modelo que demostró que el deep learning funcionaba

Consecuencia directa: todo lo que usas hoy — filtros de Instagram, búsqueda por imágenes, reconocimiento de voz, traducción automática, ChatGPT — tiene sus raíces en ese momento. Cuando tienes suficientes datos, capacidad de cómputo y una buena arquitectura, el rendimiento puede cambiar de forma dramática.


¿Las máquinas realmente “entienden”?

Esta es una de las preguntas más interesantes del curso.

Cuando una red neuronal reconoce un gato, no está pensando “qué bonito animal”. No sabe lo que un gato significa para ti. Lo que aprendió fue que ciertos patrones de píxeles aparecen una y otra vez junto a la etiqueta “gato”.

Eso no es lo mismo que la comprensión humana. Pero tampoco es trivial. Es una forma muy poderosa de reconocer regularidades.

Para debatir

Si una máquina aprende a detectar patrones mejor que una persona en una tarea específica, ¿dirías que “entiende” algo o solo que se volvió muy buena para acertar?


La idea central de esta sesión

Si tuvieras que quedarte con una sola cosa de hoy, sería esta:

La idea central

La red neuronal es la continuación natural de lo que ya viste: si una recta era una decisión matemática simple, una red neuronal es muchas decisiones simples trabajando en equipo.


Recursos para explorar más