top of page

La inteligencia artificial generativa transforma el asma pediátrico

Actualizado: hace 5 días



  • ChatGPT supera a los médicos en precisión diagnóstica, pero plantea dilemas éticos sin precedentes en la práctica clínica

  • La Cátedra Internacional IA Generativa propone un marco regulatorio para implementación responsable de sistemas generativos en medicina respiratoria



Madrid, 16 de diciembre de 2025.


Un análisis detallado sobre el impacto ético de la inteligencia artificial generativa en la práctica clínica del asma y las alergias, elaborado por Osvaldo Graña Castro y Tomás Chivato Pérez, investigadores de la Cátedra Internacional IA Generativa: Retos y Riesgos de la Universidad San Pablo CEU, destaca que la tecnología ofrece soluciones tangibles a problemas sanitarios reales, y que al hacerlo abre interrogantes profundos sobre la responsabilidad médica, la privacidad del paciente y el futuro de la relación clínica.


Cuando la máquina supera al médico


La investigación documenta evidencias sobre las capacidades diagnósticas de los modelos de lenguaje de gran tamaño (LLM). En un hospital alemán, ChatGPT-4 demostró una precisión diagnóstica del 79% en casos de urgencias, superando significativamente el 66% logrado por los médicos residentes evaluados. Estos datos representan pacientes reales en situaciones críticas, donde una recomendación incorrecta o una priorización equivocada del problema puede tener consecuencias irreversibles.

Pero el hallazgo más relevante procede de un ensayo clínico aleatorizado realizado con 186 médicos en diferentes regiones de China. Allí, la escasez de pediatras neumólogos es tan aguda que a los niños con crisis asmáticas los médicos generalistas les diagnostican frecuentemente como neumonía. El entrenamiento en el uso de ChatGPT produjo mejoras de entre 18 y 25 puntos en las pruebas de competencia clínica. Los facultativos de zonas rurales, que trabajaban en contextos de bajo desarrollo, vieron multiplicada su capacidad de gestión del asma pediátrica. Para millones de niños sin acceso a especialistas, esto podría significar la diferencia entre una crisis controlada y la hipoxia.


La brecha de confianza entre expertos


Sin embargo, cuando ese mismo ChatGPT-4 fue evaluado por neumólogos especialistas sobre cuestiones de asma, las evaluaciones cayeron a puntuaciones de 2 a 3 en una escala de 4. Los expertos identificaron imprecisiones sistemáticas en diagnóstico diferencial, clasificación de severidad y estrategias farmacológicas. Los pacientes y los ciudadanos corrientes percibían las respuestas como correctas en el 80% de los casos, pero un neumólogo experto vería errores que la máquina comete una y otra vez con absoluta confianza. En esta divergencia es donde anida el riesgo real de que la tecnología cause daño mientras parece estar ayudando.


Los siete fantasmas de la ética médica


Graña Castro y Chivato Pérez subrayan que la integración de sistemas generativos en la clínica del asma enfrenta dilemas que la medicina nunca ha tenido que resolver de esta forma. El primero es el de las alucinaciones clínicas: los LLM pueden generar información falsa pero presentada con la certidumbre total de un texto académico. Un médico fatigado o un paciente desesperado pueden confiar en recomendaciones que la máquina ha inventado porque su formato parece verificado. El segundo dilema es territorial: la privacidad y seguridad de datos. Cuando un médico consulta un sistema generativo con el historial completo de un paciente, la información sensible entra en servidores cuyos protocolos de seguridad, auditoría y conformidad con GDPR (reglamento europeo de protección de datos) permanecen opacos.

El tercer dilema emerge del aprendizaje automático mismo: los sesgos implícitos que estos modelos heredan de sus datos de entrenamiento. Si la base de datos contiene menos documentación sobre asma en poblaciones de bajos ingresos, el sistema perpetuará las diagnosis dudosas precisamente donde más precisión se necesita. El cuarto es epistemológico: la opacidad tecnológica. Ningún médico puede explicar verdaderamente por qué ChatGPT recomendó una dosis específica de corticoide inhalado o descartó una comorbilidad. ¿Cómo se puede responsabilizar a un profesional por confiar en una máquina cuya lógica interna es inaccesible?

El quinto dilema toca el corazón de la medicina moderna: el desplazamiento de la autoridad clínica. Cuando los pacientes creen que ChatGPT puede diagnosticar mejor que sus médicos, o cuando los propios facultativos comienzan a delegar el razonamiento clínico a la máquina, la práctica médica se erosiona. El sexto es legal: la responsabilidad difusa. Si un paciente sufre una exacerbación grave después de seguir un consejo generado por IA, ¿quién responde? ¿el médico que lo consultó sin validar? ¿la empresa que entrenó el modelo? ¿el hospital que lo implementó sin supervisión?. Finalmente, el séptimo riesgo es la dependencia tecnológica: el uso extenso de estos sistemas puede erosionar las habilidades clínicas acumuladas a lo largo de años de formación, tanto en profesionales como en pacientes que pierden capacidad de autogestión.


Oportunidades que podrían cambiar vidas


A pesar de estas sombras, el estudio reconoce sin ambigüedades que la IA generativa abre posibilidades relevantes. Puede personalizar la educación sanitaria de cada paciente asmático según su contexto, mejorando su capacidad de lectura y sus necesidades específicas. Puede automatizar la redacción de documentación clínica, liberando horas que ahora se pierden en burocracia hospitalaria. Puede mejorar el seguimiento remoto de la adherencia terapéutica y alertar sobre deterioro clínico antes de que sea crítico. Puede democratizar el acceso a información fiable sobre asma en comunidades rurales donde no existen especialistas. Puede sintetizar en tiempo real la explosión de evidencia científica que ningún médico individual podría leer completamente en una carrera entera.

Pero estas oportunidades no se pueden realizar solas. Requieren decisiones deliberadas sobre implementación, regulación y responsabilidad.


Tres futuros posibles


Graña Castro y Chivato Pérez describen tres escenarios posibles para los próximos tres a cinco años. En el escenario optimista, la IA generativa se integra dentro de marcos regulatorios robustos, con validación clínica rigurosa antes del despliegue, transparencia de los algoritmos y responsabilidad clara. Los hospitales la usan como herramienta de apoyo que amplifica la capacidad médica sin reemplazarla. Los especialistas enseñan a residentes cómo interrogar críticamente a estos sistemas y cuándo confiar en ellos.

El escenario intermedio supone una adopción desigual, con regulación presente en algunos países, pero no en otros, implementación en grandes centros urbanos, pero no en zonas rurales, usos limitados pero valiosos coexistiendo con escepticismo y confusión.

El escenario negativo iría asociado a una proliferación descontrolada. Aplicaciones no reguladas entrenadas con datos inadecuados, profesionales utilizando sistemas sin formación específica, pacientes reemplazando consultas médicas por chatbots, y crisis de confianza en instituciones que implementaron tecnología demasiado rápido sin considerar las consecuencias. Este último camino es perfectamente posible si la comunidad médica y los reguladores no actúan ahora.


Una vía hacia adelante


El análisis realizado por Graña Castro y Chivato Pérez propone un conjunto específico de recomendaciones que ayudan a navegar en este entorno complejo. Primero, validación clínica exhaustiva antes de cualquier despliegue, comparable a los estándares que aplicamos a medicamentos nuevos. Segundo, transparencia algorítmica que permita auditoría y trazabilidad en la toma de decisiones. Tercero, protección de datos conforme a estándares internacionales robustos, no sólo nominales. Cuarto, capacitación específica para usuarios finales en contextos clínicos, distinguiendo entre casos donde la IA puede ayudar y aquellos donde podría fallar catastróficamente. Quinto, modelos de responsabilidad legal claramente definidos que establezcan quién responde si algo sale mal.

Finalmente, la recomendación más importante: mantener la autoridad clínica humana como principio rector. La máquina puede ser consultora, sintetizadora, avisadora, pero no puede ser la decisora final en medicina.


Sobre los autores


Osvaldo Graña Castro y Tomás Chivato Pérez sons investigadores en la Cátedra Internacional IA Generativa: Retos y Riesgos de la Universidad San Pablo CEU. Su trabajo se concentra en la evaluación del impacto ético, de seguridad y de equidad de sistemas de IA en contextos clínicos reales. Este estudio representa una primera aproximación sistemática a los dilemas específicos que plantea la IA generativa en la práctica médica del asma y las alergias, combinando revisión de literatura científica, análisis de casos de uso internacionales y marcos éticos reconocidos.


Sobre la Cátedra Internacional ENIA en IA Generativa: retos y riesgos


La Cátedra Internacional ENIA en IA Generativa: retos y riesgos forma parte de las iniciativas impulsadas en el marco de la Estrategia Nacional de Inteligencia Artificial y cuenta con financiación de la Unión Europea a través del instrumento Next Generation EU. Su misión es estudiar de manera interdisciplinar las implicaciones éticas, jurídicas, sociales y económicas de la IA generativa y promover marcos de gobernanza que permitan una adopción responsable de estas tecnologías en ámbitos públicos y privados. La Cátedra impulsa proyectos de investigación, actividades formativas y espacios de diálogo entre academia, administraciones, empresas y sociedad civil, con el objetivo de contribuir a que el desarrollo de la IA se alinee con los valores y principios democráticos europeos.


Contacto de prensa


Eduardo Martínez


 
 
 

Comentarios


MO (500 x 200 px).png

Para cualquier pregunta escribe a nuestro email: info@origin-ai.org

image.png
ceu.png
LOGO COLOR.jpg
nextgeneu_en.jpg

Paseo de Juan XXIII nº 10, 28040 Madrid

© 2025 por la Universidad CEU San Pablo.

bottom of page