Sesión 13: Robótica e IA en el Mundo Físico

Bloque 3 · Creación, Aplicaciones y Futuro
13 de 15
📅 28 de julio de 2026 ⏱ 40 minutos Ver programa completo →

Introducción a la IA

Video: Robótica e IA en el Mundo Físico


Los videos y el texto de esta sesión son complementarios. Los videos amplían el contexto histórico y conceptual; el texto va a los mecanismos y te pone a interactuar con ellos. Encontrarás ideas en los videos que el texto no repite exactamente. ¡Disfruta de esta dinámica!

Introducción

El 11 de marzo de 2011, un terremoto de magnitud 9.0 y el tsunami que le siguió averiaron los reactores de la planta nuclear Fukushima Daiichi, en Japón. En cuestión de horas, los niveles de radiación hicieron imposible que cualquier persona entrara a ciertas zonas. Las autoridades desplegaron robots PackBot de iRobot —diseñados originalmente para misiones militares del ejército de EE. UU.— en los edificios de los reactores 1, 2 y 3. Transmitieron video en vivo, midieron temperaturas, detectaron escombros y registraron niveles de radiación: tareas que habrían resultado letales para un ser humano en cuestión de minutos.

Fuentes: IEEE Spectrum, “iRobot’s PackBot in Fukushima” (2011); Robin Murphy, Disaster Robotics, MIT Press (2014); informes de TEPCO e IAEA sobre los niveles de radiación durante la emergencia.

Este ejemplo es importante por una razón muy concreta: nos obliga a separar dos cosas que suelen mezclarse. Una cosa es tener una máquina con ruedas, cámaras y motores. Otra cosa es lograr que esa máquina interprete lo que ve, tome decisiones y logre un objetivo fijo.

Esa misión de 2011 nos da el contexto que necesitamos para hacernos una pregunta más precisa:

La pregunta central de esta sesión

En robótica, ¿qué parte se resuelve con hardware y reglas fijas, y qué parte necesita IA para percibir, decidir o aprender?


Construyendo un robot

Antes de hablar de IA conviene armar la imagen básica de un robot. Si lo simplificamos mucho, un robot necesita dos cosas:

  • una parte que se mueve,
  • y una parte que detecta lo que pasa alrededor.

Algo importante desde el principio: no todo robot usa IA y no toda IA está dentro de un robot. Un brazo industrial puede repetir el mismo movimiento sin aprender nada. En cambio, un dron que debe evitar obstáculos en un entorno cambiante sí puede necesitar IA.

Construyendo un robot: Los Músculos

Los actuadores son la parte que convierte una orden en movimiento físico. Si quieres una analogía simple, son los músculos del robot.

  • Motor de DC: gira continuamente. Sirve para ruedas, hélices y ventiladores.
  • Servomotor: se coloca en un ángulo preciso. Muy útil en brazos robóticos.
  • Motor paso a paso: avanza en incrementos exactos. Aparece mucho en impresoras 3D y máquinas de fabricación.
  • Actuador hidráulico: da mucha fuerza. Se usa en maquinaria pesada o robots industriales grandes.

La idea clave aquí es muy simple: los actuadores ejecutan, pero no deciden. Un motor puede mover una rueda, pero no sabe por sí mismo cuándo frenar, a dónde girar o qué camino conviene.

Construyendo un robot: Los Sentidos

Los sensores recogen información del mundo físico. Si los actuadores son los músculos, los sensores son los sentidos.

Y aquí está la parte interesante: los sensores recuperan datos, y esos datos alimentan el “cerebro” del robot. Todavía no hay inteligencia ahí. Una cámara solo entrega píxeles; un LiDAR solo entrega distancias. Pero sin esos datos, el robot no tendría con qué interpretar el entorno ni con qué tomar decisiones.

No hace falta memorizar veinte tipos de sensores. Para esta sesión basta con cuatro:

📷

Cámara

Detecta color, forma, texto y movimiento. Es el sensor más parecido al ojo humano.

⚠ Necesita luz · se confunde con reflejos · es lenta con objetos muy rápidos

Visión por computadora, lectura de señales y etiquetas

🟢

LiDAR

Emite pulsos de láser y mide cuánto tardan en regresar. Da distancias precisas en 360°.

⚠ Costoso · no detecta color · la lluvia o niebla lo degradan

Vehículos autónomos, mapeo de espacios interiores

📡

Ultrasonido

Emite ondas de sonido y mide el rebote para detectar la distancia a un obstáculo.

⚠ Rango corto · no da dirección exacta · se confunde con superficies blandas

Sensores de reversa en autos, robots domésticos básicos

🛰

GPS

Calcula la posición geográfica usando señales de satélites en órbita.

⚠ Solo funciona al aire libre · error de ± 2-5 metros

Drones de agricultura, vehículos autónomos en exteriores

Ningún sensor es perfecto: generan ruido, tienen errores de calibración y condiciones en las que fallan. Por eso los sistemas modernos suelen combinar varios al mismo tiempo.

Cada sensor ve una parte distinta del mundo. La cámara reconoce mejor qué hay; el LiDAR mide mejor dónde está.

Cámara ve colores, formas, texto zona ciega zona ciega campo visual frontal Ve bien hacia adelante, pero tiene ángulos ciegos
LiDAR R cobertura 360° Detecta distancias en todas las direcciones
En resumen

Los sensores no “entienden” el mundo: lo miden. La IA aparece cuando el sistema tiene que convertir esas mediciones en algo útil, por ejemplo distinguir una persona de una sombra, reconocer un obstáculo o elegir una ruta segura.


Cómo pasa un robot de observar el mundo a la acción

Ya tenemos el cuerpo básico: músculos para moverse y sensores para recoger datos. Ahora falta lo más importante: ¿cómo pasa el robot de medir el mundo a actuar sobre él?

Simplificando el proceso: un robot repite un ciclo una y otra vez \(\rightarrow\)

👁 Paso 1

Percibir

Cámaras, GPS, LiDAR, micrófonos o sensores de distancia convierten el mundo físico en datos.

🧠 Paso 2

Procesar

El sistema interpreta esos datos: detecta objetos, calcula posiciones, reconoce patrones o estima riesgos. Aquí suele entrar la IA.

Paso 3

Decidir

El robot elige una acción posible: frenar, girar, subir, bajar, esperar, cambiar de ruta. Aquí también puede entrar la IA.

⚙️ Paso 4

Actuar

Motores, ruedas, hélices o brazos convierten la decisión en movimiento.

Si falla en uno de estos pasos, el robot puede equivocarse aunque los demás pasos funcionen bien. Por eso no basta con preguntarnos “el robot usa IA?”. Hay que preguntar en qué parte del ciclo entra la IA.

La respuesta corta es esta:

  • En percibir, la IA puede ayudar a interpretar datos crudos: reconocer personas, objetos, señales o peligros.
  • En decidir, la IA puede ayudar a elegir entre varias acciones posibles cuando el entorno cambia.
  • En aprender, la IA puede mejorar el comportamiento del robot con datos, simulaciones o experiencia acumulada.

En situaciones simples, los pasos 2 y 3 se resuelven con reglas fijas. Pero cuando la tarea es ambigua o cambiante, esos dos pasos son justo donde la IA puede hacer la diferencia.

La conexión con IA, en una frase

Los sensores ponen los datos, los actuadores ponen el movimiento, y la IA puede entrar en medio para convertir esos datos en decisiones.


Actividad breve: tú eres el controlador

Ya no hay que imaginar: aquí tienes un robot en un mapa de 6×6. Tu tarea es guiarlo del inicio (🤖, esquina superior izquierda) hasta la meta (⭐, esquina inferior derecha), evitando obstáculos con batería limitada.

Mientras lo controlas, observa el panel de sensores: cada lectura muestra cuántos pasos libres hay en esa dirección antes de un obstáculo o el borde del mapa. 0 significa obstruido — igual a como un sensor que detecta una pared a cero distancia.

Usa los botones para guiar al robot 🤖 hasta la meta ⭐
Batería
100%
Pasos 0
📡 Sensor de distancia
Norte
Sur
Este
Oeste
🎮 Control
Tú (🤖)
Meta (⭐)
Obstáculo
Espacio libre

En este mapa, donde cada movimiento consume un 12% de batería, la ruta óptima se siente sencilla. En el mundo real todo llega mezclado, incompleto y con ruido. Ese es el desafío central de la robótica: decidir con información imperfecta, en tiempo real, cuando los errores tienen consecuencias físicas.

Y aquí está el puente con la IA: mientras tú juegas, tú haces el trabajo de percepción y decisión. Tú lees el entorno, interpretas las señales y eliges el siguiente paso. Pero, ¿cómo haríamos para que el robot hiciera eso solo?

Hay tres caminos posibles:

  • escribir reglas a mano para cada situación,
  • usar modelos de IA para interpretar sensores o elegir acciones,
  • combinar ambas cosas.

Esa combinación es, en la práctica, gran parte de la robótica moderna.

Reglas fijas vs. modelo de IA

Imagina el simulador de esta página.

  • Regla fija: “si hay un obstáculo al frente, gira a la derecha”. Funciona bien en mapas simples, pero en situaciones más complejas se puede quedar atorado o tomar rutas innecesariamente largas.
  • Modelo de IA: aprende, a partir de muchos intentos o ejemplos, qué movimiento aumenta las probabilidades de llegar a la meta cometiendo el menor número de errores posibles.

La diferencia no está en que uno sea “inteligente” y el otro no. Está en que la regla fija depende de instrucciones escritas a mano, mientras que el modelo de IA ajusta su comportamiento a partir de datos o experiencia acumulada.


De control remoto a autonomía

No todas las máquinas inteligentes tienen el mismo nivel de autonomía — y este punto genera mucha confusión, sobre todo porque en la publicidad y los medios se mezclan sin distinción niveles muy diferentes.

Mientras más autonomía le pides a un sistema, más importante se vuelve que pueda percibir bien y decidir sin depender de una persona en cada segundo. Aunque la autonomía de una máquina y la IA no son lo mismo, sí están muy conectadas.

La escala que sigue es una adaptación de la propuesta general de niveles de autonomía. Nació en el contexto de vehículos, pero aquí la usamos en un lenguaje más amplio para pensar en robots de distintos tipos.

0

Manual o teleoperado

La persona toma todas las decisiones importantes y controla el movimiento.

Ejemplo: dron pilotado a mano o robot manejado a control remoto.

1

Asistencia puntual

El sistema ayuda con una tarea específica, pero no lleva la misión completa.

Ejemplo: estabilización automática o frenado ante choque inminente.

2

Automatización parcial

Puede ejecutar varias acciones seguidas, pero necesita vigilancia humana constante.

Ejemplo: robot móvil que sigue una ruta conocida con supervisión cercana.

3

Autonomía condicionada

Opera solo por momentos en contextos previstos, pero espera intervención humana si aparece algo fuera de lo normal.

Ejemplo: robot de almacén que trabaja solo mientras el entorno siga dentro de ciertos límites.

IA: empieza a ser necesaria
4

Alta autonomía delimitada

Cumple una misión completa por sí mismo, pero solo en zonas, rutas o escenarios muy definidos.

Ejemplo: dron de entrega o robot de inspección en un entorno controlado.

IA: muy importante
5

Autonomía general

Podría operar solo en casi cualquier entorno, sin depender de límites predefinidos.

Ejemplo: este nivel todavía no existe en robótica real.

IA: imprescindible (en teoría)

Adaptado de SAE J3016, originalmente propuesta para vehículos, aquí reformulada para pensar en aplicaciones para robótica en general.

Antes de seguir — un momento para reflexionar

¿Cuál de estos dos robots usa más IA?

🤖 Roomba (2002)

Opera completamente solo: mapea la habitación, esquiva obstáculos y regresa a su base. No necesita de nadie durante la misión.

🦾 Brazo robótico de almacén

Usa visión por computadora para reconocer cajas de formas y tamaños distintos. Un humano supervisa la misión completa.

El brazo robótico usa más IA — aunque la Roomba es más autónomo.
Autonomía y uso de IA no son la misma escala. Eso es exactamente lo que exploraremos aquí.
Ojo con el lenguaje

Una palabra exagerada puede hacer mucho daño. Si llamas “autónomo” a algo que en realidad necesita supervisión constante, podemos confiar de más en la máquina, usarla de forma érronea, y cometer errores graves. En robótica, una mala expectativa también es un problema de seguridad.


¿Cómo aprende un robot sin romperse?

Hasta ahora hablamos de robots que perciben y deciden. Aquí aparece otra pregunta importante: ¿cómo aprenden a hacerlo sin romperse en el intento?

Como viste en la sesión 3, el aprendizaje por refuerzo es una familia de métodos donde un agente prueba acciones, recibe una recompensa y ajusta su comportamiento. En robótica, esa idea se vuelve mucho más delicada, porque ahora los errores no ocurren en una pantalla: ocurren en el mundo físico.

Por ello, siempre debemos simular antes de desplegar.

APRENDIZAJE POR REFUERZO

Primero falla mil veces en formato virtual, y así evita cometer ese error en la calle

Idea central de la robótica moderna

Con aprendizaje por refuerzo, el agente prueba acciones, recibe recompensas y ajusta su comportamiento. En simuladores eso es barato y repetible. En el mundo físico, un error puede romper el robot, desperdiciar materiales o lastimar a alguien. Por eso muchas aplicaciones entrenan primero en mundos virtuales y solo después pasan a pruebas reales. Esto no elimina el riesgo, pero sí reduce muchísimo el costo de aprender.

En robótica, la simulación no es un adorno; es una medida de seguridad y de reducción de costos. Aprender por prueba y error en formato virtual es mucho más barato que aprender con impactos reales. Aun así, pasar de la simulación a mundo físico sigue siendo difícil porque el mundo real es más desordenado.


Robots con IA: ¿qué problemas resuelven?

No empieces por el robot — empieza por el problema. Cada uno de los tres casos que siguen tiene los mismos ingredientes: una situación que un humano no podía resolver solo, una máquina que responde con sensores y movimiento, y un momento exacto donde la IA convierte el “no se puede” en “ya funciona”.

🏭

Boston Dynamics

El problema Inspeccionar una planta química, una mina activa o un edificio dañado puede ser letal. El entorno cambia: el suelo es irregular, el aire puede ser tóxico, y los instrumentos son difíciles de leer a distancia.

Robot cuadrúpedo que navega espacios industriales y de riesgo de forma autónoma, recoge lecturas de sensores y transmite datos en tiempo real sin exponer a nadie.

La IA hace posible Visión por computadora que detecta anomalías: equipos con temperatura fuera de rango, estructuras dañadas, lecturas de gas inusuales. Planificación de trayectoria que se adapta cada paso al terreno sin instrucciones manuales.

Visión por computadora Planificación de ruta
📦

MIT Technology Review · 2017

El problema En zonas rurales de Ruanda, las clínicas no recibían sangre ni vacunas a tiempo: las carreteras eran intransitables o no existían. El tiempo entre pedido y entrega podía medirse en horas. En medicina, un lapso de ese tamaño puede ser la diferencia entre la vida y la muerte.

Red de drones que entrega sangre, vacunas y medicamentos en menos de 30 minutos a clínicas remotas, sin carreteras ni pilotos humanos.

La IA hace posible Navegación autónoma que corrige la ruta en vuelo según el viento y el terreno. El sistema calcula el punto exacto de entrega y ajusta la trayectoria en tiempo real, sin intervención humana desde tierra.

Navegación autónoma Decisión en tiempo real
🇲🇽

UNAM · Instituto de Ciencias Nucleares

El problema Enviar un robot grande a explorar la Luna es costoso y concentra todo el riesgo en un solo punto de falla: si algo sale mal, se pierde la misión completa. Un robot solo puede cubrir un área limitada.

Cinco microrrobots de decenas de gramos cada uno, diseñados en la UNAM, pensados para desplegarse juntos desde un módulo lunar y explorar de forma independiente.

La IA hace posible Comportamiento coordinado sin controlador central: cada robot es simple por diseño, pero el conjunto puede cubrir más superficie que un solo vehículo y seguir operando aunque alguno falle.

México · UNAM Robótica de enjambre

Recursos para explorar más sobre el tema


La idea central de esta sesión

Idea central · Sesión 13

Un robot no se vuelve inteligente solo por tener motores y sensores. La IA entra cuando esa máquina debe percibir, decidir o adaptarse en un entorno cambiante. Por eso, en robótica, la pregunta importante no es solo qué se mueve, sino qué problema se intenta resolver y con qué margen de seguridad.