Sesión 3: Algoritmos de IA: ¿qué método para qué problema?

Bloque 1 · Fundamentos + Ética
3 de 15
📅 19 de mayo de 2026 ⏱ 45 minutos Ver programa completo →

Video: Algoritmos de IA — ¿qué método para qué problema?

Video de la sesión — en desarrollo

Aquí se insertará la grabación principal cuando el guion final esté listo.


Texto: Algoritmos de IA — ¿qué método para qué problema?


Introducción

Son las 11 de la noche. Abres WhatsApp para mandarle un mensaje a alguien y el teclado ya te propone la siguiente palabra antes de que termines de escribir. Minutos después entras a Instagram y la app detecta tu cara automáticamente para etiquetarte en una foto. Antes de dormir revisas Spotify: el algoritmo ya preparó una playlist nueva que, de alguna forma, suena exactamente como lo que quieres escuchar ahora mismo. A las 11:03 tu app de noticias muestra un artículo que encaja perfecto con algo que buscaste esta mañana.

Cuatro apps. Cuatro tipos de IA distintos.

Esto no es casualidad. El sistema que predice tu siguiente palabra en WhatsApp es completamente diferente al que detecta tu cara en Instagram. El que agrupa tu música según tu estado de ánimo no tiene nada que ver con el que ordena tus noticias. Cada uno fue diseñado para resolver un tipo distinto de problema..

En las sesiones anteriores viste cómo aprende una máquina: ajustando una recta a partir de datos (regresión lineal en S1), agrupando sin etiquetas (K-Means en S1), aprendiendo por ensayo y error (refuerzo en S1), y construyendo redes neuronales capa por capa (S2). Hoy vamos a organizar todo eso — más algunos métodos nuevos — dentro de un mapa que te permita responder la pregunta clave:

Pregunta clave

¿Qué familia de algoritmos tiene más sentido aplicar — y por qué?


¿Por qué no existe un solo algoritmo para todo?

Imagina que eres carpintero y tienes un solo instrumento: un martillo. Puedes usarlo para clavar, para romper, para golpear. Pero si necesitas cortar una tabla, lijar una superficie o atornillar, el martillo no sirve de nada — o peor, arruina el trabajo.

Los algoritmos de IA funcionan igual. Cada familia fue diseñada para resolver un tipo específico de problema. Forzar un método donde no encaja tiene consecuencias:

  • Un modelo de regresión intentando clasificar imágenes como “spam / no spam” producirá caos.
  • Un algoritmo de agrupamiento (K-Means) al que le pides predecir el precio del dólar mañana no tiene idea de qué hacer.
  • Usar un transformer gigante para predecir si una persona pagará su crédito es caro, lento e innecesario.

La buena noticia: no necesitas memorizar decenas de algoritmos. Necesitas aprender a hacer dos preguntas que clasifican casi cualquier problema.


El mapa de métodos: dos preguntas que clasifican todo

Antes de elegir un algoritmo, pregúntate:

Pregunta 1: ¿Tienes respuestas correctas etiquetadas en tus datos?

  • Si — alguien ya etiquetó los datos con la respuesta correcta (ej. “este correo es spam”, “este tumor es maligno”). Eso se llama aprendizaje supervisado.
  • Si no — los datos no tienen etiqueta, o el sistema aprende solo probando en un entorno. Puede ser no supervisado o por refuerzo.

Pregunta 2 (solo si respondiste sí): ¿Qué forma tiene la salida?

  • ¿Un número continuo? → Regresión
  • ¿Una categoría? → depende si los datos son texto, imagen o números estructurados

flowchart TD
    Q1{"¿Tienes respuestas etiquetadas?"}
    Q1 -->|"Sí — supervisado"| Q2{"¿Qué salida necesitas?"}
    Q1 -->|"No"| Q3{"¿Buscas gruposo aprendes actuando?"}

    Q2 -->|"Predecir un número"| R["📈 Regresión lineal\n(ya la conoces)"]
    Q2 -->|"Predecir una categoría"| Q4{"¿Qué tipo de datos?"}

    Q4 -->|"Texto / secuencias"| TR["💬 Transformers (nuevo)"]
    Q4 -->|"Imágenes"| C["👁 CNN (nuevo)"]
    Q4 -->|"Datos estructurados"| T["🌳 Árbol de decisión (nuevo)"]

    Q3 -->|"Buscar grupos"| K["🔵 K-Means (ya lo conoces)"]
    Q3 -->|"Aprender actuando"| RL["🎮 Refuerzo (ya lo conoces)"]

Este mapa es tu brújula. Cuando tengas un problema que crees que la IA puede resolver, empieza siempre desde arriba.


Las 6 familias de algoritmos

A continuación, un recorrido por las seis familias del mapa. Las tres que ya conoces de sesiones anteriores van en versión rápida. Las tres nuevas llevan más espacio.


Regresión lineal — ya la conoces

Repaso rápido — S1

En la sesión 1 ajustaste una recta (ŷ = m·x + b) para predecir calificaciones según horas de estudio. Eso es regresión lineal: encontrar los números m y b que mejor explican los datos.

Cuándo usarla: cuando quieres predecir un número continuo a partir de variables de entrada.

Ejemplos nuevos: - Predecir cuántos minutos tardará tu DiDi en llegar basándose en la distancia, hora del día y tráfico actual. - Estimar cuántas vistas tendrá un video de TikTok según su duración, hora de publicación y número de seguidores.

Su límite: Solo captura relaciones lineales. Si la relación real es una curva, la recta se queda corta. Existen versiones más avanzadas (regresión polinomial, regresión con regularización) para esos casos.


Árbol de decisión — el juego de las 20 preguntas

¿Alguna vez jugaste “Adivina el personaje”? Alguien piensa en una persona y tú tienes que adivinarla haciendo preguntas de sí o no: “¿Es hombre?”, “¿Es mayor de 40 años?”, “¿Es famoso por el deporte?”. Con suficientes preguntas bien elegidas llegas a la respuesta.

Un árbol de decisión hace exactamente eso, pero con datos.

El algoritmo analiza el conjunto de entrenamiento y descubre cuál es la pregunta más útil para hacer primero — la que mejor divide los datos entre las posibles categorías. Luego hace la siguiente pregunta más útil, y así recursivamente, hasta llegar a una clasificación.

Ejemplo: Supón que quieres construir un clasificador de spam. El árbol podría aprender preguntas como:

  1. ¿Contiene la frase “haz clic aquí para ganar”? → Si sí → spam

  2. ¿El remitente está en tus contactos? → Si no → probablemente spam

  3. ¿El asunto tiene más de 3 signos de exclamación? → Si sí → spam

Nadie le programó esas reglas. El árbol las aprendió del historial de correos etiquetados.

No No No ¿Contiene "haz clic para ganar"? Pregunta 1 de 3 ¿Remitente en contactos? ¿Más de 3 signos "!"? 🚨 Spam 🚨 Spam ✅ No es spam 🤔 Revisar
El árbol aprendió estas tres preguntas solo — nadie las programó a mano.

Cuándo usarlo: cuando tienes datos estructurados (tablas con columnas y filas), necesitas clasificar en categorías, y quieres que el modelo sea explicable — es decir, poder decirle al usuario exactamente por qué tomó una decisión.

Su límite: Si los datos de prueba son muy distintos a los de entrenamiento, el árbol falla. También puede “memorizar” demasiado los datos de entrenamiento sin generalizar bien — eso se llama sobreajuste (overfitting). Las versiones mejoradas (Random Forest, Gradient Boosting) solucionan esto con decenas de árboles trabajando juntos.

🌳

Mini lab — árboles de decisión

R2D3: Una introducción visual al machine learning

Uno de los mejores recursos para entender árboles de decisión de forma visual. Usa datos de departamentos en San Francisco y Nueva York. No necesitas ningún conocimiento previo, solo desplázate lentamente y observa cómo el árbol construye sus preguntas paso a paso.

→ Abrir R2D3 (inglés, visual, gratuito)


K-Means — ya lo conoces

Repaso rápido — S1

En la sesión 1 viste cómo K-Means agrupa canciones sin etiquetas: propone centros al azar, asigna cada punto al centro más cercano, mueve los centros, y repite hasta que los grupos se estabilizan.

Cuándo usarlo: cuando no tienes etiquetas y quieres descubrir la estructura natural de tus datos. Segmentación de clientes, agrupación de noticias por tema, detección de perfiles de usuario.

Su límite: tú tienes que decirle cuántos grupos quieres (k). El algoritmo no lo decide solo. Si eliges un k incorrecto, los grupos no tendrán sentido. Existen métodos para estimar el mejor k, pero siguen siendo heurísticos.


Redes neuronales convolucionales (CNN) — cómo ve la IA

Cuando ves una fotografía de un gato, tu cerebro no la analiza píxel por píxel. Detecta bordes, luego formas, luego texturas, luego el objeto completo, todo en capas progresivas de abstracción. Las redes convolucionales hacen algo muy parecido.

Una CNN pasa la imagen por una serie de filtros (pequeñas matrices matemáticas) que aprenden a detectar características en orden de complejidad:

  • Capa 1: bordes horizontales, verticales, diagonales
  • Capa 2: esquinas, curvas, líneas dobles
  • Capa 3: texturas (pelo, plumas, piel)
  • Capa 4: partes (ojo, oreja, pata)
  • Capa final: el objeto completo (gato, perro, persona)

Ninguna de esas características fue programada manualmente. La red las aprendió ajustando los filtros con millones de imágenes etiquetadas y retropropagación (backpropagation, que se mencionó brevemente en la S2).

👁
Capa 1 — Bordes

Detecta cambios bruscos de color en la imagen: una línea vertical entre el fondo claro y el pelo oscuro de un gato.

🔵
Capa 2 — Formas

Combina los bordes detectados para reconocer esquinas, curvas y formas simples: la punta de una oreja, el contorno de un ojo.

🐾
Capa final — Objeto

Combina todas las características detectadas en capas anteriores y decide: es un gato, no un perro ni una persona.

Cuándo usarlas: casi cualquier tarea con imágenes o video — reconocimiento facial, detección de objetos, moderación de contenido, diagnóstico médico por radiografías.

Ejemplos que ya usas:

  • Face ID de tu iPhone o la detección automática de caras en Instagram

  • El filtro de contenido violento en TikTok

  • Los asistentes de diagnóstico por imagen en hospitales

Su límite: necesitan enormes cantidades de imágenes etiquetadas para funcionar bien (decenas de miles a millones). También son costosas de entrenar en tiempo y computación. Y si les das una imagen ligeramente distorsionada (un pixel cambiado estratégicamente — lo que se llama adversarial attack), pueden fallar de forma sorprendente.

🎨

Demo — clasifica imágenes sin código

Teachable Machine de Google — entrenamiento de imágenes

Ya usaste Teachable Machine en la sesión 1. Esta vez vuelve con otro enfoque: cuando entrenas tu clasificador de imágenes, lo que está ocurriendo internamente es una CNN pequeña aprendiendo qué características distinguen tus clases. Prueba con menos fotos y observa cuándo el modelo empieza a fallar, ese es el límite de los datos que mencionamos arriba.

→ Abrir Teachable Machine


Transformers — el cerebro detrás de ChatGPT

¿No habíamos dicho que ChatGPT usa redes neuronales?

Sí. Los transformers son redes neuronales: usan las mismas neuronas artificiales, pesos y entrenamiento por retropropagación que viste en la S2. Lo que cambia es la arquitectura: cómo están organizadas esas neuronas y qué mecanismo usan para procesar información.

La jerarquía es:

  • Red neuronal → categoría general (cualquier modelo con capas de neuronas conectadas)

    • CNN → subtype especializado en imágenes (detecta bordes, formas, objetos)

    • Transformer → subtipo especializado en texto y secuencias (entiende el contexto completo de una oración)

Cuando alguien te manda un mensaje que dice “¿ya llegaste?”, tú entiendes instantáneamente que “ya” implica que había un plan previo, que “llegaste” se refiere a un lugar específico del contexto de su conversación, y que la persona probablemente te está esperando. Procesas todas esas relaciones entre palabras de forma paralela, en fracción de segundo.

Eso es exactamente lo que los transformers intentan hacer — y lo logran con un mecanismo llamado atención (attention).

La idea central: en lugar de leer una oración de izquierda a derecha (como lo hacían las redes anteriores), un transformer mira todas las palabras al mismo tiempo y calcula qué tan relacionada está cada palabra con las demás. Esta capacidad de capturar dependencias largas. Entender que “ella” en el final de un párrafo se refiere a “María” mencionada hace cinco oraciones, es lo que los hace tan poderosos para lenguaje.

¿Qué aprenden?

Un transformer se entrena con cantidades enormes de texto. Su tarea durante el entrenamiento es simple: predecir la siguiente palabra en una oración. Pero para hacerlo bien con miles de millones de oraciones, debe aprender gramática, hechos del mundo, razonamiento básico, y hasta tono y estilo. Eso es lo que está dentro de ChatGPT, Google Translate, Copilot y los modelos de lenguaje modernos.

Cuándo usarlos: traducción automática, generación de texto, resumen de documentos, chatbots, asistentes de código, análisis de sentimiento.

Su límite: son extremadamente costosos de entrenar desde cero. GPT-4 costó decenas de millones de dólares en cómputo. También pueden “alucinar” (inventar respuestas falsas con total confianza), y capturan los sesgos del texto con el que fueron entrenados. La siguiente sesión está dedicada exactamente a este mundo.

💬

Mini lab — cómo piensa un transformer

Transformer Explainer — GPT-2 en vivo en tu navegador

Escribe una frase y observa cómo el modelo la procesa internamente: tokenización, embeddings, capas de atención y la distribución de probabilidad sobre la siguiente palabra. Puedes pasar el cursor sobre los tokens para ver qué tan "relacionados" considera el modelo que están entre sí — eso es el mecanismo de atención.

No es necesario entender cada detalle técnico. Solo observa cómo el modelo conecta palabras y elige su siguiente token.

→ Abrir Transformer Explainer (inglés, interactivo, gratuito)


Aprendizaje por refuerzo — ya lo conoces

Repaso rápido — S1

En la sesión 1 viste a Mario aprendiendo a saltar: el agente toma acciones, recibe recompensas si le va bien y penalizaciones si falla, y ajusta su política. Sin datos etiquetados — solo prueba y error en un entorno.

Cuándo usarlo: cuando no tienes un conjunto de datos etiquetados y el sistema puede aprender actuando en un simulador: videojuegos, robótica, optimización de rutas, sistemas de trading, control de plantas industriales.

Su límite: necesita un simulador donde probar millones de veces sin consecuencias reales. Transferir lo aprendido en simulación al mundo físico (el llamado sim-to-real gap) sigue siendo uno de los problemas más difíciles de la robótica moderna.


Actividad: Problema → Método → Límite

Ahora te toca a ti. A continuación hay seis problemas que nos podemos encontrar en el día a día. Para cada uno, elige la familia de algoritmos que mejor encaja usando lo que viste en el mapa de métodos. Cuando hayas asignado todos, verifica tus respuestas.

Actividad — mapa de métodos

¿Qué método usarías para cada problema?

Asigna una familia de algoritmos a cada escenario. Recuerda las dos preguntas del mapa: ¿tienes respuestas etiquetadas? ¿qué tipo de salida necesitas?

🚗 DiDi
📧 Spam
🎵 Spotify
📸 Video
🌐 Traducción
🎮 Bot

Vista previa de la actividad

Seis problemas esperan tu clasificación. Abre la actividad para empezar.

Qué estás viendo

6 problemas del mundo actual. Tu tarea es asignar la familia de IA más apropiada a cada uno.

Qué significa

El objetivo no es memorizar nombres — es aprender a reconocer qué tipo de problema pide qué tipo de solución.


Cierre

Tabla comparativa

Aquí está el mapa completo en una sola vista:

Familia Tipo de problema Analogía App que la usa Límite clave
Regresión lineal S1 Predecir un número continuo Estimar calificación según horas de estudio DiDi (tiempo de llegada), Google Maps Solo relaciones lineales
Árbol de decisión nuevo Clasificar en categorías con datos estructurados El juego de las 20 preguntas Filtros de spam, diagnóstico médico básico Sobreajuste; falla con datos muy diferentes
K-Means S1 Agrupar sin etiquetas Spotify agrupando música sin decirle los géneros Mercado Libre (segmentación), Netflix (perfiles) Tú decides cuántos grupos quieres
CNN nuevo Clasificar imágenes o video Capas de filtros que ven bordes → formas → objetos Face ID, filtros de Instagram, moderación TikTok Necesita millones de imágenes etiquetadas
Transformer nuevo Entender o generar texto y secuencias Autocomplete que entiende el contexto completo ChatGPT, Google Translate, GitHub Copilot Muy caro de entrenar; puede alucinar
Refuerzo S1 Aprender a actuar por ensayo y error Aprender a patinar cayéndose mil veces Bots de videojuegos, robots, sistemas de control Necesita simulador; sim-to-real gap
La idea central de esta sesión

El algoritmo correcto no es el más complejo ni el más famoso — es el que mejor encaja con el tipo de problema que tienes. Un transformer no es mejor que un árbol de decisión en absoluto: son herramientas para trabajos distintos. La habilidad no es saber todos los algoritmos de memoria; es saber hacer las dos preguntas del mapa.


Para reflexionar

Para pensar en casa

Ahora que terminaste la sesión, responde para ti mismo estas preguntas:

  1. Elige una app que usas todos los días. ¿Qué tipo de problema resuelve su IA? Usa el mapa de las dos preguntas para ubicarla.

  2. Piensa en un problema que quisieras resolver con IA — puede ser algo de tu escuela, tu hobby o algo que veas en tu comunidad. ¿Qué familia usarías? ¿Qué datos necesitarías?

  3. Los límites importan. Si tuvieras que explicarle a alguien por qué los transformers no son la solución a todo (LLMs, ChatGPT), ¿qué le dirías?

No hay respuestas correctas o incorrectas. El objetivo es que el mapa empiece a vivir en tu cabeza, no solo en esta página.


Recursos para explorar más

  • R2D3 — Visual intro to machine learning — el mejor scrollytelling sobre árboles de decisión que existe; sin código, en inglés con visulaes que se explican solos
  • MLU-Explain — ensayos visuales e interactivos sobre algoritmos clave, de Amazon Machine Learning University
  • Transformer Explainer — GPT-2 en vivo en tu navegador; observa el mecanismo de atención en acción
  • Visualizing K-Means — demo interactiva del clustering paso a paso
  • TensorFlow Playground — experimenta con redes neuronales cambiando parámetros en tiempo real
  • Elements of AI — curso introductorio gratuito en español (Universidad de Helsinki), cubre varios de los algoritmos de esta sesión