Es preciso regular los riesgos de la IA para proteger derechos sin frenar la innovación
- Comunicado de Prensa

- 12 dic 2025
- 5 Min. de lectura
Actualizado: 2 ene

Un nuevo estudio de la Cátedra ENIA de IA Generativa destaca el papel estratégico del Reglamento europeo de Inteligencia Artificial
Lo considera un punto de apoyo esencial para reconducir el desarrollo de la IA hacia sistemas y modelos más seguros y confiables
Madrid, 12/12/2025. La profesora Carmen Muñoz García, catedrática (acr.) de Derecho Civil de la Universidad Complutense de Madrid, ha presentado la investigación «La trascendencia de regular los riesgos de la IA: la función estratégica del Reglamento Europeo de Inteligencia Artificial», desarrollada en el marco de la Cátedra Internacional ENIA «IA Generativa: retos y riesgos».
El trabajo analiza cómo el Reglamento (UE) 2024/1689 de Inteligencia Artificial se convierte en una pieza clave para ordenar el despliegue de la IA, en particular de la IA generativa, equilibrando la protección de los derechos fundamentales con el impulso a la innovación tecnológica en el mercado europeo.
La investigación parte de la constatación de que los sistemas avanzados de IA generativa se han integrado ya en la vida cotidiana a través de asistentes conversacionales y herramientas capaces de crear textos, imágenes o vídeos de gran calidad, accesibles para amplias capas de la población. Esta expansión, señala la autora, combina un elevado potencial de beneficios (desde la mejora de procesos en educación, salud o servicios públicos hasta nuevas formas de creatividad) con los innumerables riesgos estructurales que afectan, entre otros, a la privacidad, la protección de datos personales, la reputación, la imagen, la posición de las personas consumidoras, o la propiedad intelectual en cuanto a la explotación masiva de contenidos sin licencia.
Entre esos riesgos destaca la facilidad con la que estos sistemas pueden generar desinformación verosímil, amplificar sesgos o influir de manera opaca en decisiones individuales y colectivas, así como la situación de incertidumbre en materia de propiedad intelectual en contextos de entrenamiento masivo con contenidos protegidos. La profesora Muñoz subraya que las denominadas «alucinaciones» de la IA generativa —respuestas falsas expresadas con apariencia de verdad— no son fallos anecdóticos, sino un riesgo estructural que exige respuestas regulatorias específicas.
Modelo seguro y confiable
Frente a un marco normativo previo fragmentado y pensado para tecnologías menos complejas, el estudio sitúa el Reglamento (UE) como un punto de apoyo esencial para reconducir el desarrollo de la IA hacia un modelo más seguro y confiable. La norma, aprobada en 2024, introduce por primera vez una regulación horizontal y específica para los sistemas de IA en la Unión Europea, con el objetivo de garantizar que las soluciones que se comercializan o utilizan en el mercado interior sean técnicamente robustas, transparentes y respetuosas con los derechos fundamentales. La investigación subraya que esta regulación no pretende frenar la innovación, sino ofrecer seguridad jurídica y reglas claras a empresas, administraciones y desarrolladores que utilizan o integran sistemas de IA.
Uno de los elementos que la profesora Muñoz García destaca como más relevantes es el enfoque basado en riesgos que articula el Reglamento europeo. La norma clasifica los sistemas de IA en distintas categorías —riesgo inaceptable, alto, limitado y mínimo— asignando a cada nivel obligaciones proporcionadas, que van desde la prohibición de determinadas prácticas hasta exigencias estrictas de evaluación, supervisión y documentación, o requerimientos de transparencia hacia los usuarios. Este enfoque permite adaptar la intensidad de la regulación al impacto potencial de cada sistema sobre la salud, la seguridad y los derechos fundamentales, evitando tanto la sobrecarga de obligaciones en aplicaciones de bajo riesgo como la desprotección en ámbitos especialmente sensibles.
Tres planos esenciales
El trabajo identifica, asimismo, tres planos en los que el Reglamento europeo de IA despliega una función estratégica. En primer lugar, refuerza una visión de la IA centrada en la persona, al situar la dignidad humana y los derechos fundamentales como criterio rector de la innovación, en línea con otros instrumentos de la Unión. En segundo lugar, contribuye a una estandarización ético-legal, al convertir principios antes voluntarios —como la transparencia, la supervisión humana significativa o la gestión responsable de datos— en obligaciones exigibles y verificables. En tercer lugar, favorece la coherencia normativa del ecosistema europeo, al coordinarse, entre otros, con el Reglamento General de Protección de Datos, la normativa de consumidores, las reglas de seguridad de productos o la regulación de propiedad intelectual, conformando un entramado de garantías más integrado.
La profesora Muñoz García concluye que, para el sector tecnológico, el Reglamento europeo de IA opera como un estándar de calidad y un marco de referencia que facilita el diseño de sistemas de IA generativa más seguros, auditables y alineados con expectativas sociales y regulatorias. Desde la perspectiva jurídica, es la pieza clave para el decisivo reto de adaptar el Derecho a la era algorítmica. La norma exige una actualización profunda de categorías como la responsabilidad civil, la protección de datos o la tutela de la creatividad en un contexto en el que decisiones automatizadas y contenidos generados por máquinas tienen efectos crecientes sobre la vida de las personas. Para la ciudadanía, es una garantía de que la IA opera dentro de los límites que protegen sus derechos.
El mensaje de la investigación es que regular la IA ya no es una opción, sino un requisito indispensable para que el progreso tecnológico se traduzca en mejoras reales sin erosionar derechos, confianza ni cohesión democrática, especialmente frente a riesgos estructurales como la desinformación, los sesgos y las alucinaciones de los sistemas generativos.
Sobre la autora
Carmen Muñoz García es catedrática (acr.) de Derecho Civil en la Universidad Complutense de Madrid, donde desarrolla su labor docente e investigadora en ámbitos como el Derecho de daños, el Derecho de la contratación y el Derecho europeo digital. Autora de diversas publicaciones sobre regulación de la inteligencia artificial y protección de datos en Europa, entre ellas una obra monográfica dedicada al Reglamento Europeo de Inteligencia Artificial, su trabajo se centra en analizar cómo adaptar el ordenamiento jurídico a los retos que plantean las tecnologías emergentes manteniendo un alto nivel de protección de los derechos fundamentales.
Sobre la Cátedra Internacional ENIA en IA Generativa: retos y riesgos
La Cátedra Internacional ENIA en IA Generativa: retos y riesgos forma parte de las iniciativas impulsadas en el marco de la Estrategia Nacional de Inteligencia Artificial y cuenta con financiación de la Unión Europea a través del instrumento Next Generation EU. Su misión es estudiar de manera interdisciplinar las implicaciones éticas, jurídicas, sociales y económicas de la IA generativa y promover marcos de gobernanza que permitan una adopción responsable de estas tecnologías en ámbitos públicos y privados. La Cátedra impulsa proyectos de investigación, actividades formativas y espacios de diálogo entre academia, administraciones, empresas y sociedad civil, con el objetivo de contribuir a que el desarrollo de la IA se alinee con los valores y principios democráticos europeos.
Contacto de prensa
Eduardo Martínez





Comentarios