flowchart TD
Q1{"¿Tienes respuestas etiquetadas?"}
Q1 -->|"Sí — supervisado"| Q2{"¿Qué salida necesitas?"}
Q1 -->|"No"| Q3{"¿Buscas gruposo aprendes actuando?"}
Q2 -->|"Predecir un número"| R["📈 Regresión lineal\n(ya la conoces)"]
Q2 -->|"Predecir una categoría"| Q4{"¿Qué tipo de datos?"}
Q4 -->|"Texto / secuencias"| TR["💬 Transformers (nuevo)"]
Q4 -->|"Imágenes"| C["👁 CNN (nuevo)"]
Q4 -->|"Datos estructurados"| T["🌳 Árbol de decisión (nuevo)"]
Q3 -->|"Buscar grupos"| K["🔵 K-Means (ya lo conoces)"]
Q3 -->|"Aprender actuando"| RL["🎮 Refuerzo (ya lo conoces)"]
Sesión 3: Algoritmos de IA: ¿qué método para qué problema?
Video: Algoritmos de IA — ¿qué método para qué problema?
Video de la sesión — en desarrollo
Aquí se insertará la grabación principal cuando el guion final esté listo.
Texto: Algoritmos de IA — ¿qué método para qué problema?
Introducción
Son las 11 de la noche. Abres WhatsApp para mandarle un mensaje a alguien y el teclado ya te propone la siguiente palabra antes de que termines de escribir. Minutos después entras a Instagram y la app detecta tu cara automáticamente para etiquetarte en una foto. Antes de dormir revisas Spotify: el algoritmo ya preparó una playlist nueva que, de alguna forma, suena exactamente como lo que quieres escuchar ahora mismo. A las 11:03 tu app de noticias muestra un artículo que encaja perfecto con algo que buscaste esta mañana.
Cuatro apps. Cuatro tipos de IA distintos.
Esto no es casualidad. El sistema que predice tu siguiente palabra en WhatsApp es completamente diferente al que detecta tu cara en Instagram. El que agrupa tu música según tu estado de ánimo no tiene nada que ver con el que ordena tus noticias. Cada uno fue diseñado para resolver un tipo distinto de problema..
En las sesiones anteriores viste cómo aprende una máquina: ajustando una recta a partir de datos (regresión lineal en S1), agrupando sin etiquetas (K-Means en S1), aprendiendo por ensayo y error (refuerzo en S1), y construyendo redes neuronales capa por capa (S2). Hoy vamos a organizar todo eso — más algunos métodos nuevos — dentro de un mapa que te permita responder la pregunta clave:
¿Qué familia de algoritmos tiene más sentido aplicar — y por qué?
¿Por qué no existe un solo algoritmo para todo?
Imagina que eres carpintero y tienes un solo instrumento: un martillo. Puedes usarlo para clavar, para romper, para golpear. Pero si necesitas cortar una tabla, lijar una superficie o atornillar, el martillo no sirve de nada — o peor, arruina el trabajo.
Los algoritmos de IA funcionan igual. Cada familia fue diseñada para resolver un tipo específico de problema. Forzar un método donde no encaja tiene consecuencias:
- Un modelo de regresión intentando clasificar imágenes como “spam / no spam” producirá caos.
- Un algoritmo de agrupamiento (K-Means) al que le pides predecir el precio del dólar mañana no tiene idea de qué hacer.
- Usar un transformer gigante para predecir si una persona pagará su crédito es caro, lento e innecesario.
La buena noticia: no necesitas memorizar decenas de algoritmos. Necesitas aprender a hacer dos preguntas que clasifican casi cualquier problema.
El mapa de métodos: dos preguntas que clasifican todo
Antes de elegir un algoritmo, pregúntate:
Pregunta 1: ¿Tienes respuestas correctas etiquetadas en tus datos?
- Si sí — alguien ya etiquetó los datos con la respuesta correcta (ej. “este correo es spam”, “este tumor es maligno”). Eso se llama aprendizaje supervisado.
- Si no — los datos no tienen etiqueta, o el sistema aprende solo probando en un entorno. Puede ser no supervisado o por refuerzo.
Pregunta 2 (solo si respondiste sí): ¿Qué forma tiene la salida?
- ¿Un número continuo? → Regresión
- ¿Una categoría? → depende si los datos son texto, imagen o números estructurados
Este mapa es tu brújula. Cuando tengas un problema que crees que la IA puede resolver, empieza siempre desde arriba.
Las 6 familias de algoritmos
A continuación, un recorrido por las seis familias del mapa. Las tres que ya conoces de sesiones anteriores van en versión rápida. Las tres nuevas llevan más espacio.
Regresión lineal — ya la conoces
En la sesión 1 ajustaste una recta (ŷ = m·x + b) para predecir calificaciones según horas de estudio. Eso es regresión lineal: encontrar los números m y b que mejor explican los datos.
Cuándo usarla: cuando quieres predecir un número continuo a partir de variables de entrada.
Ejemplos nuevos: - Predecir cuántos minutos tardará tu DiDi en llegar basándose en la distancia, hora del día y tráfico actual. - Estimar cuántas vistas tendrá un video de TikTok según su duración, hora de publicación y número de seguidores.
Su límite: Solo captura relaciones lineales. Si la relación real es una curva, la recta se queda corta. Existen versiones más avanzadas (regresión polinomial, regresión con regularización) para esos casos.
Árbol de decisión — el juego de las 20 preguntas
¿Alguna vez jugaste “Adivina el personaje”? Alguien piensa en una persona y tú tienes que adivinarla haciendo preguntas de sí o no: “¿Es hombre?”, “¿Es mayor de 40 años?”, “¿Es famoso por el deporte?”. Con suficientes preguntas bien elegidas llegas a la respuesta.
Un árbol de decisión hace exactamente eso, pero con datos.
El algoritmo analiza el conjunto de entrenamiento y descubre cuál es la pregunta más útil para hacer primero — la que mejor divide los datos entre las posibles categorías. Luego hace la siguiente pregunta más útil, y así recursivamente, hasta llegar a una clasificación.
Ejemplo: Supón que quieres construir un clasificador de spam. El árbol podría aprender preguntas como:
¿Contiene la frase “haz clic aquí para ganar”? → Si sí → spam
¿El remitente está en tus contactos? → Si no → probablemente spam
¿El asunto tiene más de 3 signos de exclamación? → Si sí → spam
Nadie le programó esas reglas. El árbol las aprendió del historial de correos etiquetados.
Cuándo usarlo: cuando tienes datos estructurados (tablas con columnas y filas), necesitas clasificar en categorías, y quieres que el modelo sea explicable — es decir, poder decirle al usuario exactamente por qué tomó una decisión.
Su límite: Si los datos de prueba son muy distintos a los de entrenamiento, el árbol falla. También puede “memorizar” demasiado los datos de entrenamiento sin generalizar bien — eso se llama sobreajuste (overfitting). Las versiones mejoradas (Random Forest, Gradient Boosting) solucionan esto con decenas de árboles trabajando juntos.
Mini lab — árboles de decisión
R2D3: Una introducción visual al machine learning
Uno de los mejores recursos para entender árboles de decisión de forma visual.
Usa datos de departamentos en San Francisco y Nueva York.
No necesitas ningún conocimiento previo, solo desplázate lentamente y observa cómo el árbol construye sus preguntas paso a paso.
→ Abrir R2D3 (inglés, visual, gratuito)
K-Means — ya lo conoces
En la sesión 1 viste cómo K-Means agrupa canciones sin etiquetas: propone centros al azar, asigna cada punto al centro más cercano, mueve los centros, y repite hasta que los grupos se estabilizan.
Cuándo usarlo: cuando no tienes etiquetas y quieres descubrir la estructura natural de tus datos. Segmentación de clientes, agrupación de noticias por tema, detección de perfiles de usuario.
Su límite: tú tienes que decirle cuántos grupos quieres (k). El algoritmo no lo decide solo. Si eliges un k incorrecto, los grupos no tendrán sentido. Existen métodos para estimar el mejor k, pero siguen siendo heurísticos.
Redes neuronales convolucionales (CNN) — cómo ve la IA
Cuando ves una fotografía de un gato, tu cerebro no la analiza píxel por píxel. Detecta bordes, luego formas, luego texturas, luego el objeto completo, todo en capas progresivas de abstracción. Las redes convolucionales hacen algo muy parecido.
Una CNN pasa la imagen por una serie de filtros (pequeñas matrices matemáticas) que aprenden a detectar características en orden de complejidad:
- Capa 1: bordes horizontales, verticales, diagonales
- Capa 2: esquinas, curvas, líneas dobles
- Capa 3: texturas (pelo, plumas, piel)
- Capa 4: partes (ojo, oreja, pata)
- Capa final: el objeto completo (gato, perro, persona)
Ninguna de esas características fue programada manualmente. La red las aprendió ajustando los filtros con millones de imágenes etiquetadas y retropropagación (backpropagation, que se mencionó brevemente en la S2).
Capa 1 — Bordes
Detecta cambios bruscos de color en la imagen: una línea vertical entre el fondo claro y el pelo oscuro de un gato.
Capa 2 — Formas
Combina los bordes detectados para reconocer esquinas, curvas y formas simples: la punta de una oreja, el contorno de un ojo.
Capa final — Objeto
Combina todas las características detectadas en capas anteriores y decide: es un gato, no un perro ni una persona.
Cuándo usarlas: casi cualquier tarea con imágenes o video — reconocimiento facial, detección de objetos, moderación de contenido, diagnóstico médico por radiografías.
Ejemplos que ya usas:
Face ID de tu iPhone o la detección automática de caras en Instagram
El filtro de contenido violento en TikTok
Los asistentes de diagnóstico por imagen en hospitales
Su límite: necesitan enormes cantidades de imágenes etiquetadas para funcionar bien (decenas de miles a millones). También son costosas de entrenar en tiempo y computación. Y si les das una imagen ligeramente distorsionada (un pixel cambiado estratégicamente — lo que se llama adversarial attack), pueden fallar de forma sorprendente.
Demo — clasifica imágenes sin código
Teachable Machine de Google — entrenamiento de imágenes
Ya usaste Teachable Machine en la sesión 1. Esta vez vuelve con otro enfoque: cuando entrenas tu clasificador de imágenes, lo que está ocurriendo internamente es una CNN pequeña aprendiendo qué características distinguen tus clases. Prueba con menos fotos y observa cuándo el modelo empieza a fallar, ese es el límite de los datos que mencionamos arriba.
→ Abrir Teachable Machine
Transformers — el cerebro detrás de ChatGPT
Sí. Los transformers son redes neuronales: usan las mismas neuronas artificiales, pesos y entrenamiento por retropropagación que viste en la S2. Lo que cambia es la arquitectura: cómo están organizadas esas neuronas y qué mecanismo usan para procesar información.
La jerarquía es:
Red neuronal → categoría general (cualquier modelo con capas de neuronas conectadas)
CNN → subtype especializado en imágenes (detecta bordes, formas, objetos)
Transformer → subtipo especializado en texto y secuencias (entiende el contexto completo de una oración)
Cuando alguien te manda un mensaje que dice “¿ya llegaste?”, tú entiendes instantáneamente que “ya” implica que había un plan previo, que “llegaste” se refiere a un lugar específico del contexto de su conversación, y que la persona probablemente te está esperando. Procesas todas esas relaciones entre palabras de forma paralela, en fracción de segundo.
Eso es exactamente lo que los transformers intentan hacer — y lo logran con un mecanismo llamado atención (attention).
La idea central: en lugar de leer una oración de izquierda a derecha (como lo hacían las redes anteriores), un transformer mira todas las palabras al mismo tiempo y calcula qué tan relacionada está cada palabra con las demás. Esta capacidad de capturar dependencias largas. Entender que “ella” en el final de un párrafo se refiere a “María” mencionada hace cinco oraciones, es lo que los hace tan poderosos para lenguaje.
¿Qué aprenden?
Un transformer se entrena con cantidades enormes de texto. Su tarea durante el entrenamiento es simple: predecir la siguiente palabra en una oración. Pero para hacerlo bien con miles de millones de oraciones, debe aprender gramática, hechos del mundo, razonamiento básico, y hasta tono y estilo. Eso es lo que está dentro de ChatGPT, Google Translate, Copilot y los modelos de lenguaje modernos.
Cuándo usarlos: traducción automática, generación de texto, resumen de documentos, chatbots, asistentes de código, análisis de sentimiento.
Su límite: son extremadamente costosos de entrenar desde cero. GPT-4 costó decenas de millones de dólares en cómputo. También pueden “alucinar” (inventar respuestas falsas con total confianza), y capturan los sesgos del texto con el que fueron entrenados. La siguiente sesión está dedicada exactamente a este mundo.
Mini lab — cómo piensa un transformer
Transformer Explainer — GPT-2 en vivo en tu navegador
Escribe una frase y observa cómo el modelo la procesa internamente: tokenización, embeddings, capas de atención y la distribución de probabilidad sobre la siguiente palabra.
Puedes pasar el cursor sobre los tokens para ver qué tan "relacionados" considera el modelo que están entre sí — eso es el mecanismo de atención.
No es necesario entender cada detalle técnico. Solo observa cómo el modelo conecta palabras y elige su siguiente token.
→ Abrir Transformer Explainer (inglés, interactivo, gratuito)
Aprendizaje por refuerzo — ya lo conoces
En la sesión 1 viste a Mario aprendiendo a saltar: el agente toma acciones, recibe recompensas si le va bien y penalizaciones si falla, y ajusta su política. Sin datos etiquetados — solo prueba y error en un entorno.
Cuándo usarlo: cuando no tienes un conjunto de datos etiquetados y el sistema puede aprender actuando en un simulador: videojuegos, robótica, optimización de rutas, sistemas de trading, control de plantas industriales.
Su límite: necesita un simulador donde probar millones de veces sin consecuencias reales. Transferir lo aprendido en simulación al mundo físico (el llamado sim-to-real gap) sigue siendo uno de los problemas más difíciles de la robótica moderna.
Actividad: Problema → Método → Límite
Ahora te toca a ti. A continuación hay seis problemas que nos podemos encontrar en el día a día. Para cada uno, elige la familia de algoritmos que mejor encaja usando lo que viste en el mapa de métodos. Cuando hayas asignado todos, verifica tus respuestas.
Actividad — mapa de métodos
¿Qué método usarías para cada problema?
Asigna una familia de algoritmos a cada escenario. Recuerda las dos preguntas del mapa: ¿tienes respuestas etiquetadas? ¿qué tipo de salida necesitas?
Vista previa de la actividad
Seis problemas esperan tu clasificación. Abre la actividad para empezar.
Qué estás viendo
6 problemas del mundo actual. Tu tarea es asignar la familia de IA más apropiada a cada uno.
Qué significa
El objetivo no es memorizar nombres — es aprender a reconocer qué tipo de problema pide qué tipo de solución.
Cierre
Tabla comparativa
Aquí está el mapa completo en una sola vista:
| Familia | Tipo de problema | Analogía | App que la usa | Límite clave |
|---|---|---|---|---|
| Regresión lineal S1 | Predecir un número continuo | Estimar calificación según horas de estudio | DiDi (tiempo de llegada), Google Maps | Solo relaciones lineales |
| Árbol de decisión nuevo | Clasificar en categorías con datos estructurados | El juego de las 20 preguntas | Filtros de spam, diagnóstico médico básico | Sobreajuste; falla con datos muy diferentes |
| K-Means S1 | Agrupar sin etiquetas | Spotify agrupando música sin decirle los géneros | Mercado Libre (segmentación), Netflix (perfiles) | Tú decides cuántos grupos quieres |
| CNN nuevo | Clasificar imágenes o video | Capas de filtros que ven bordes → formas → objetos | Face ID, filtros de Instagram, moderación TikTok | Necesita millones de imágenes etiquetadas |
| Transformer nuevo | Entender o generar texto y secuencias | Autocomplete que entiende el contexto completo | ChatGPT, Google Translate, GitHub Copilot | Muy caro de entrenar; puede alucinar |
| Refuerzo S1 | Aprender a actuar por ensayo y error | Aprender a patinar cayéndose mil veces | Bots de videojuegos, robots, sistemas de control | Necesita simulador; sim-to-real gap |
El algoritmo correcto no es el más complejo ni el más famoso — es el que mejor encaja con el tipo de problema que tienes. Un transformer no es mejor que un árbol de decisión en absoluto: son herramientas para trabajos distintos. La habilidad no es saber todos los algoritmos de memoria; es saber hacer las dos preguntas del mapa.
Para reflexionar
Ahora que terminaste la sesión, responde para ti mismo estas preguntas:
Elige una app que usas todos los días. ¿Qué tipo de problema resuelve su IA? Usa el mapa de las dos preguntas para ubicarla.
Piensa en un problema que quisieras resolver con IA — puede ser algo de tu escuela, tu hobby o algo que veas en tu comunidad. ¿Qué familia usarías? ¿Qué datos necesitarías?
Los límites importan. Si tuvieras que explicarle a alguien por qué los transformers no son la solución a todo (LLMs, ChatGPT), ¿qué le dirías?
No hay respuestas correctas o incorrectas. El objetivo es que el mapa empiece a vivir en tu cabeza, no solo en esta página.
Recursos para explorar más
- R2D3 — Visual intro to machine learning — el mejor scrollytelling sobre árboles de decisión que existe; sin código, en inglés con visulaes que se explican solos
- MLU-Explain — ensayos visuales e interactivos sobre algoritmos clave, de Amazon Machine Learning University
- Transformer Explainer — GPT-2 en vivo en tu navegador; observa el mecanismo de atención en acción
- Visualizing K-Means — demo interactiva del clustering paso a paso
- TensorFlow Playground — experimenta con redes neuronales cambiando parámetros en tiempo real
- Elements of AI — curso introductorio gratuito en español (Universidad de Helsinki), cubre varios de los algoritmos de esta sesión