Los videos y el texto de esta sesión son complementarios. Los videos amplían el contexto histórico y conceptual; el texto va a los mecanismos y te pone a interactuar con ellos. Encontrarás ideas en los videos que el texto no repite exactamente. ¡Disfruta de esta dinámica!
Introducción
Imagina esta escena. Es de noche en una clínica de la Huasteca potosina. Una médica general atiende a muchas personas y no siempre tiene a un especialista cerca. Llega un paciente con diabetes y visión borrosa. La clínica usa una herramienta que analiza imágenes del ojo y sugiere si hace falta mandar a la persona con urgencia a un hospital más grande.
Esa escena es hipotética para San Luis Potosí — todavía. Sin embargo, en otras regiones del mundo con contextos similares ya es una realidad. Si queremos integrar ese tipo de IA en el sector salud de México, tenemos que preguntarnos: ¿qué hace exactamente esa herramienta? ¿Cómo funciona? ¿Qué hay que saber para usarla bien, y para saber cuándo falla?
La pregunta que guiará esta sesión
Si una herramienta de IA participa en decisiones sobre tu salud, ¿qué tendría que pasar para que eso sea justo, seguro y de utilidad?
Mini-Diccionario
Estas palabras aparecen en esta sesión. Aquí van en versión clara:
Diagnóstico: identificar qué problema de salud tiene una persona.
Sesgo: un error sistemático que perjudica más a unos grupos que a otros.
Proxy: una medida indirecta. Por ejemplo, usar “gasto médico” como sustituto de “qué tan enfermo está alguien”.
Consentimiento informado: aceptar algo después de recibir una explicación clara de qué es y qué implica.
Dónde está la IA en la medicina
La IA tiene diversas aplicaciones para el sector salud. A veces se usa directamente en un paciente; a veces opera detrás de la consulta. A veces apoya decisiones clínicas; otras veces organiza trabajo administrativo. Esta tabla te ayuda a ubicar los usos más comunes:
Las proteínas son moléculas que cumplen tareas esenciales en el cuerpo: transportar oxígeno, defenderte de infecciones o ayudar a que las células funcionen. Su forma tridimensional importa porque esa forma influye en lo que pueden hacer. En 2021, AlphaFold 2 mostró un salto enorme en la capacidad de predecir esas formas a partir de su secuencia de aminoácidos. La base de datos pública resultante incluye más de 200 millones de estructuras predichas — gratis, para cualquier investigador en el mundo. Esto no significa que la IA "curó enfermedades", pero sí aceleró trabajo científico que antes tomaba décadas.
Comparando dos casos del uso de la IA en el sector salud
Para entender el rol de la IA en el sector salud, nada mejor que analizar casos concretos. Aquí hay dos: uno donde ayudó de manera notable, y uno donde produjo consecuencias injustas sin que nadie se diera cuenta durante años.
✓ CASO DE ÉXITO
Detección de retinopatía diabética con IA
DeepMind + Moorfields Eye Hospital · Nature Medicine, 2018 · Con aplicaciones en regiones de escasos recursos en India
Qué hacía la IAAnalizaba imágenes de retina (OCT scans) y detectaba señales de más de 50 enfermedades oculares, incluyendo retinopatía diabética — que puede causar ceguera si no se detecta a tiempo.
Por qué importóEn zonas rurales de la India, la relación oftalmólogo-paciente era de 1:50,000. Una herramienta que funciona desde una tablet con 4G permitía decidir quién necesitaba ser referido con urgencia, sin esperar al especialista (una espera que puede durar semanas).
Qué hizo posible el resultadoEl modelo se entrenó con datos de alta calidad del Hospital Moorfields de Londres, se validó en múltiples clínicas antes del despliegue y se usó para una tarea muy concreta: revisar imágenes, no reemplazar todo el juicio médico.
El resultadoEn el piloto publicado en Nature Medicine, el sistema concordó con el diagnóstico de especialistas en más del 90% de los casos. La metodología abrió la puerta a aplicaciones en clínicas rurales de India y otras regiones donde el acceso a especialistas es escaso.
Una herramienta de IA bien entrenada, validada y aplicada a una tarea específica puede ampliar el acceso a servicios donde son escasos; por ej. no hay especialistas.
✗ CASO DE RIESGO
Algoritmo de riesgo médico con sesgo racial
Obermeyer et al. — Science, octubre de 2019 · ~200 millones de pacientes anuales afectados
Qué hacía la IAAyudaba a decidir qué pacientes debían entrar a programas de atención intensiva para enfermedades crónicas. Era uno de los sistemas más usados en hospitales de EE.UU.
Qué salió malA igual gravedad de enfermedad, pacientes afroamericanos recibían puntuaciones de riesgo 26.3% más bajas que pacientes blancos, quedando fuera de programas de atención que necesitaban.
Por qué fallóEl sistema usaba el gasto médico histórico como proxy de necesidad de salud (cuánto dinero invierte una persona en su salud). Pero gastar menos no significaba estar menos enfermo — también reflejaba décadas de desigualdad en acceso a atención médica.
La lecciónSi utilizas datos de entrenamiento con posibles sesgos, puedes construir una herramienta con buena apariencia técnica pero con consecuencias injustas sin que nadie lo note durante años.
La decisión de qué datos utilizar, y qué variables incluir en el modelo, es igual de importante que la selección del algoritmo o los avances matemáticos que mejoran su capacidad predictiva.
¿Y México?
En México, usar inteligencia artificial en el sector salud puede brindar grandes beneficios a la sociedad. Así como en el caso de la India, utilizar IA a nivel diagnóstico puede ser muy útil, en particular cuando no hay especialistas en la clínica y las distancias a hospitales mayores son largas. Este es el caso hipotético de la Huasteca potosina que presentamos al principio. En nuestro país, solo 560 de los aproximadamente 2,460 municipios del país tienen algún establecimiento hospitalario (INEGI, 2023); y en San Luis Potosí, el estado cuenta con menos de 1 cama de hospital por cada 1,000 habitantes, muy por debajo de lo que recomienda la OMS. Herramientas IA bien diseñadas pueden marcar la diferencia entre un sistema de salud saturado y uno que pueda cubrir las necesidades de su comunidad.
Pero no olvidemos el caso Obermeyer: una herramienta entrenada con datos de hospitales en Boston o Londres no necesariamente funcionará igual en una clínica de Ciudad Valles, Matehuala o la Huasteca potosina en general. Los datos de entrenamiento importan tanto como el algoritmo — y los datos locales los tienen las instituciones locales.
¡Y hay buenas noticias! En SLP ya se está haciendo IA. En el IPICYT, el Dr. Salvador Ruiz-Correa y su You-i Lab desarrollaron en 2020 Centinela de la Salud: una aplicación móvil que usó IA y crowdsourcing para rastrear brotes de COVID-19 en tiempo real en San Luis Potosí capital. El proyecto fue publicado en el International Journal of Medical Informatics (2021) y surgió de una colaboración entre IPICYT, la UASLP, la Universidad de Oxford y los Servicios de Salud del estado. La IA aplicada a la salud no solo se produce en Silicon Valley. También se produce en nuestro estado.
¿Qué debemos saber antes de implementar la IA en el sector Salud?
Hablemos de derechos, diseño, y responsabilidad.
🔔
El derecho a saber
Si una herramienta de IA participa en tu atención clínica, deberían decírtelo de forma clara — no en letra chiquita, no al final, no con tecnicismos. Saber qué hace y qué datos usa es un derecho básico.
✍️
Consentir la atención medica no es consentir a todo
Aceptar una consulta no significa automáticamente aceptar que tus datos de salud se usen para entrenar modelos futuros. Son decisiones distintas y deberían pedirse por separado.
⚖️
Responsabilidad clara
Si una recomendación automática sale mal, debe haber alguien que responda: quien diseñó la herramienta, quien la compró, quien la supervisó. "El algoritmo decidió" no es una respuesta suficiente.
🌱
México puede construir esto bien
Hacer las preguntas correctas desde el inicio — sobre datos, contexto y derechos — es lo que distingue una herramienta útil de una que amplifica desigualdades. Esas preguntas las pueden hacer investigadores, médicos y ciudadanos mexicanos.
Estas preguntas tienen respaldo académico: investigadoras del área de informática y economía formalizaron los principios de informar, evaluar y consentir en el marco IAC, diseñado para proteger los derechos de los pacientes cuando la IA se usa en su atención médica.
Algunas conclusiones de la lección
Sobre la tecnología:
La IA puede apoyar en consultas, a administrar hospitales o a acelerar investigación científica.
Sobre los riesgos:
Un sistema de IA puede parecer muy preciso y aun así ser injusto (sesgo de datos).
Un modelo entrenado con datos de otro contexto puede fallar en México o en San Luis Potosí.
Sobre tus derechos:
Tienes derecho a saber si se usa IA en el servicio que te proporcionan.
Tienes derecho a entender qué datos se están usando.
Tienes derecho a preguntar si existe una alternativa o cómo se supervisa esa herramienta.
La IA en salud, ciencia y sociedad puede ser muy útil, pero nunca es neutral ni automática. Su valor depende de cómo se entrena, en qué contexto se despliega, qué supervisión tiene y si protege realmente a las personas a quienes dice ayudar.