Los videos y el texto de esta sesión son complementarios. Los videos amplían el contexto histórico y conceptual; el texto va a los mecanismos y te pone a interactuar con ellos. Encontrarás ideas en los videos que el texto no repite exactamente. ¡Disfruta de esta dinámica!
Introducción
El 11 de marzo de 2011, un terremoto de magnitud 9.0 y el tsunami que le siguió averiaron los reactores de la planta nuclear Fukushima Daiichi, en Japón. En cuestión de horas, los niveles de radiación hicieron imposible que cualquier persona entrara a ciertas zonas. Las autoridades desplegaron robots PackBot de iRobot —diseñados originalmente para misiones militares del ejército de EE. UU.— en los edificios de los reactores 1, 2 y 3. Transmitieron video en vivo, midieron temperaturas, detectaron escombros y registraron niveles de radiación: tareas que habrían resultado letales para un ser humano en cuestión de minutos.
Fuentes: IEEE Spectrum, “iRobot’s PackBot in Fukushima” (2011); Robin Murphy, Disaster Robotics, MIT Press (2014); informes de TEPCO e IAEA sobre los niveles de radiación durante la emergencia.
Este ejemplo es importante por una razón muy concreta: nos obliga a separar dos cosas que suelen mezclarse. Una cosa es tener una máquina con ruedas, cámaras y motores. Otra cosa es lograr que esa máquina interprete lo que ve, tome decisiones y logre un objetivo fijo.
Esa misión de 2011 nos da el contexto que necesitamos para hacernos una pregunta más precisa:
La pregunta central de esta sesión
En robótica, ¿qué parte se resuelve con hardware y reglas fijas, y qué parte necesita IA para percibir, decidir o aprender?
Construyendo un robot
Antes de hablar de IA conviene armar la imagen básica de un robot. Si lo simplificamos mucho, un robot necesita dos cosas:
una parte que se mueve,
y una parte que detecta lo que pasa alrededor.
Algo importante desde el principio: no todo robot usa IA y no toda IA está dentro de un robot. Un brazo industrial puede repetir el mismo movimiento sin aprender nada. En cambio, un dron que debe evitar obstáculos en un entorno cambiante sí puede necesitar IA.
Construyendo un robot: Los Músculos
Los actuadores son la parte que convierte una orden en movimiento físico. Si quieres una analogía simple, son los músculos del robot.
Motor de DC: gira continuamente. Sirve para ruedas, hélices y ventiladores.
Servomotor: se coloca en un ángulo preciso. Muy útil en brazos robóticos.
Motor paso a paso: avanza en incrementos exactos. Aparece mucho en impresoras 3D y máquinas de fabricación.
Actuador hidráulico: da mucha fuerza. Se usa en maquinaria pesada o robots industriales grandes.
La idea clave aquí es muy simple: los actuadores ejecutan, pero no deciden. Un motor puede mover una rueda, pero no sabe por sí mismo cuándo frenar, a dónde girar o qué camino conviene.
Construyendo un robot: Los Sentidos
Los sensores recogen información del mundo físico. Si los actuadores son los músculos, los sensores son los sentidos.
Y aquí está la parte interesante: los sensores recuperan datos, y esos datos alimentan el “cerebro” del robot. Todavía no hay inteligencia ahí. Una cámara solo entrega píxeles; un LiDAR solo entrega distancias. Pero sin esos datos, el robot no tendría con qué interpretar el entorno ni con qué tomar decisiones.
No hace falta memorizar veinte tipos de sensores. Para esta sesión basta con cuatro:
📷
Cámara
Detecta color, forma, texto y movimiento. Es el sensor más parecido al ojo humano.
⚠ Necesita luz · se confunde con reflejos · es lenta con objetos muy rápidos
Visión por computadora, lectura de señales y etiquetas
🟢
LiDAR
Emite pulsos de láser y mide cuánto tardan en regresar. Da distancias precisas en 360°.
⚠ Costoso · no detecta color · la lluvia o niebla lo degradan
Vehículos autónomos, mapeo de espacios interiores
📡
Ultrasonido
Emite ondas de sonido y mide el rebote para detectar la distancia a un obstáculo.
⚠ Rango corto · no da dirección exacta · se confunde con superficies blandas
Sensores de reversa en autos, robots domésticos básicos
🛰
GPS
Calcula la posición geográfica usando señales de satélites en órbita.
⚠ Solo funciona al aire libre · error de ± 2-5 metros
Drones de agricultura, vehículos autónomos en exteriores
Ningún sensor es perfecto: generan ruido, tienen errores de calibración y condiciones en las que fallan. Por eso los sistemas modernos suelen combinar varios al mismo tiempo.
Cada sensor ve una parte distinta del mundo. La cámara reconoce mejor qué hay; el LiDAR mide mejor dónde está.
CámaraVe bien hacia adelante, pero tiene ángulos ciegos
LiDARDetecta distancias en todas las direcciones
En resumen
Los sensores no “entienden” el mundo: lo miden. La IA aparece cuando el sistema tiene que convertir esas mediciones en algo útil, por ejemplo distinguir una persona de una sombra, reconocer un obstáculo o elegir una ruta segura.
Cómo pasa un robot de observar el mundo a la acción
Ya tenemos el cuerpo básico: músculos para moverse y sensores para recoger datos. Ahora falta lo más importante: ¿cómo pasa el robot de medir el mundo a actuar sobre él?
Simplificando el proceso: un robot repite un ciclo una y otra vez \(\rightarrow\)
👁Paso 1
Percibir
Cámaras, GPS, LiDAR, micrófonos o sensores de distancia convierten el mundo físico en datos.
🧠Paso 2
Procesar
El sistema interpreta esos datos: detecta objetos, calcula posiciones, reconoce patrones o estima riesgos. Aquí suele entrar la IA.
⚡Paso 3
Decidir
El robot elige una acción posible: frenar, girar, subir, bajar, esperar, cambiar de ruta. Aquí también puede entrar la IA.
⚙️Paso 4
Actuar
Motores, ruedas, hélices o brazos convierten la decisión en movimiento.
Si falla en uno de estos pasos, el robot puede equivocarse aunque los demás pasos funcionen bien. Por eso no basta con preguntarnos “el robot usa IA?”. Hay que preguntar en qué parte del ciclo entra la IA.
La respuesta corta es esta:
En percibir, la IA puede ayudar a interpretar datos crudos: reconocer personas, objetos, señales o peligros.
En decidir, la IA puede ayudar a elegir entre varias acciones posibles cuando el entorno cambia.
En aprender, la IA puede mejorar el comportamiento del robot con datos, simulaciones o experiencia acumulada.
En situaciones simples, los pasos 2 y 3 se resuelven con reglas fijas. Pero cuando la tarea es ambigua o cambiante, esos dos pasos son justo donde la IA puede hacer la diferencia.
La conexión con IA, en una frase
Los sensores ponen los datos, los actuadores ponen el movimiento, y la IA puede entrar en medio para convertir esos datos en decisiones.
Actividad breve: tú eres el controlador
Ya no hay que imaginar: aquí tienes un robot en un mapa de 6×6. Tu tarea es guiarlo del inicio (🤖, esquina superior izquierda) hasta la meta (⭐, esquina inferior derecha), evitando obstáculos con batería limitada.
Mientras lo controlas, observa el panel de sensores: cada lectura muestra cuántos pasos libres hay en esa dirección antes de un obstáculo o el borde del mapa. 0 significa obstruido — igual a como un sensor que detecta una pared a cero distancia.
Usa los botones para guiar al robot 🤖 hasta la meta ⭐
Batería
100%
Pasos0
📡 Sensor de distancia
Norte
—
Sur
—
Este
—
Oeste
—
🎮 Control
Tú (🤖)
Meta (⭐)
Obstáculo
Espacio libre
En este mapa, donde cada movimiento consume un 12% de batería, la ruta óptima se siente sencilla. En el mundo real todo llega mezclado, incompleto y con ruido. Ese es el desafío central de la robótica: decidir con información imperfecta, en tiempo real, cuando los errores tienen consecuencias físicas.
Y aquí está el puente con la IA: mientras tú juegas, tú haces el trabajo de percepción y decisión. Tú lees el entorno, interpretas las señales y eliges el siguiente paso. Pero, ¿cómo haríamos para que el robot hiciera eso solo?
Hay tres caminos posibles:
escribir reglas a mano para cada situación,
usar modelos de IA para interpretar sensores o elegir acciones,
combinar ambas cosas.
Esa combinación es, en la práctica, gran parte de la robótica moderna.
Reglas fijas vs. modelo de IA
Imagina el simulador de esta página.
Regla fija: “si hay un obstáculo al frente, gira a la derecha”. Funciona bien en mapas simples, pero en situaciones más complejas se puede quedar atorado o tomar rutas innecesariamente largas.
Modelo de IA: aprende, a partir de muchos intentos o ejemplos, qué movimiento aumenta las probabilidades de llegar a la meta cometiendo el menor número de errores posibles.
La diferencia no está en que uno sea “inteligente” y el otro no. Está en que la regla fija depende de instrucciones escritas a mano, mientras que el modelo de IA ajusta su comportamiento a partir de datos o experiencia acumulada.
De control remoto a autonomía
No todas las máquinas inteligentes tienen el mismo nivel de autonomía — y este punto genera mucha confusión, sobre todo porque en la publicidad y los medios se mezclan sin distinción niveles muy diferentes.
Mientras más autonomía le pides a un sistema, más importante se vuelve que pueda percibir bien y decidir sin depender de una persona en cada segundo. Aunque la autonomía de una máquina y la IA no son lo mismo, sí están muy conectadas.
La escala que sigue es una adaptación de la propuesta general de niveles de autonomía. Nació en el contexto de vehículos, pero aquí la usamos en un lenguaje más amplio para pensar en robots de distintos tipos.
0
Manual o teleoperado
La persona toma todas las decisiones importantes y controla el movimiento.
Ejemplo: dron pilotado a mano o robot manejado a control remoto.
1
Asistencia puntual
El sistema ayuda con una tarea específica, pero no lleva la misión completa.
Ejemplo: estabilización automática o frenado ante choque inminente.
2
Automatización parcial
Puede ejecutar varias acciones seguidas, pero necesita vigilancia humana constante.
Ejemplo: robot móvil que sigue una ruta conocida con supervisión cercana.
3
Autonomía condicionada
Opera solo por momentos en contextos previstos, pero espera intervención humana si aparece algo fuera de lo normal.
Ejemplo: robot de almacén que trabaja solo mientras el entorno siga dentro de ciertos límites.
IA: empieza a ser necesaria
4
Alta autonomía delimitada
Cumple una misión completa por sí mismo, pero solo en zonas, rutas o escenarios muy definidos.
Ejemplo: dron de entrega o robot de inspección en un entorno controlado.
IA: muy importante
5
Autonomía general
Podría operar solo en casi cualquier entorno, sin depender de límites predefinidos.
Ejemplo: este nivel todavía no existe en robótica real.
IA: imprescindible (en teoría)
Adaptado de SAE J3016, originalmente propuesta para vehículos, aquí reformulada para pensar en aplicaciones para robótica en general.
Antes de seguir — un momento para reflexionar
¿Cuál de estos dos robots usa más IA?
🤖Roomba (2002)
Opera completamente solo: mapea la habitación, esquiva obstáculos y regresa a su base. No necesita de nadie durante la misión.
🦾Brazo robótico de almacén
Usa visión por computadora para reconocer cajas de formas y tamaños distintos. Un humano supervisa la misión completa.
El brazo robótico usa más IA — aunque la Roomba es más autónomo.
Autonomía y uso de IA no son la misma escala. Eso es exactamente lo que exploraremos aquí.
Ojo con el lenguaje
Una palabra exagerada puede hacer mucho daño. Si llamas “autónomo” a algo que en realidad necesita supervisión constante, podemos confiar de más en la máquina, usarla de forma érronea, y cometer errores graves. En robótica, una mala expectativa también es un problema de seguridad.
¿Cómo aprende un robot sin romperse?
Hasta ahora hablamos de robots que perciben y deciden. Aquí aparece otra pregunta importante: ¿cómo aprenden a hacerlo sin romperse en el intento?
Como viste en la sesión 3, el aprendizaje por refuerzo es una familia de métodos donde un agente prueba acciones, recibe una recompensa y ajusta su comportamiento. En robótica, esa idea se vuelve mucho más delicada, porque ahora los errores no ocurren en una pantalla: ocurren en el mundo físico.
Por ello, siempre debemos simular antes de desplegar.
APRENDIZAJE POR REFUERZO
Primero falla mil veces en formato virtual, y así evita cometer ese error en la calle
Idea central de la robótica moderna
Con aprendizaje por refuerzo, el agente prueba acciones, recibe recompensas y ajusta su comportamiento. En simuladores eso es barato y repetible. En el mundo físico, un error puede romper el robot, desperdiciar materiales o lastimar a alguien. Por eso muchas aplicaciones entrenan primero en mundos virtuales y solo después pasan a pruebas reales. Esto no elimina el riesgo, pero sí reduce muchísimo el costo de aprender.
En robótica, la simulación no es un adorno; es una medida de seguridad y de reducción de costos. Aprender por prueba y error en formato virtual es mucho más barato que aprender con impactos reales. Aun así, pasar de la simulación a mundo físico sigue siendo difícil porque el mundo real es más desordenado.
Robots con IA: ¿qué problemas resuelven?
No empieces por el robot — empieza por el problema. Cada uno de los tres casos que siguen tiene los mismos ingredientes: una situación que un humano no podía resolver solo, una máquina que responde con sensores y movimiento, y un momento exacto donde la IA convierte el “no se puede” en “ya funciona”.
Un robot no se vuelve inteligente solo por tener motores y sensores. La IA entra cuando esa máquina debe percibir, decidir o adaptarse en un entorno cambiante. Por eso, en robótica, la pregunta importante no es solo qué se mueve, sino qué problema se intenta resolver y con qué margen de seguridad.