top of page

¿Quién responde cuando la inteligencia artificial causa daño?

Actualizado: 2 ene


  • Una nueva investigación examina los vacíos de la responsabilidad civil ante sistemas de IA cada vez más autónomos


  • La Cátedra Internacional ENIA en IA Generativa explora los retos jurídicos para garantizar la seguridad en un entorno de algoritmos opacos y de alto impacto social


Madrid, 18 de diciembre de 2025.

Una investigación desarrollada por María L. Kubica, profesora de Derecho Civil y Chair del Spanish Hub del European Law Institute, en el marco de la Cátedra Internacional ENIA en IA Generativa: Retos y Riesgos, analiza cómo debería responder la responsabilidad civil cuando los daños se originan en sistemas de inteligencia artificial cuyo funcionamiento resulta difícil de prever, auditar y explicar.

El trabajo parte de un dato: en el primer trimestre de 2025, los incidentes de fuga de información vinculados al uso de IA generativa se multiplicaron por 2,5 y ya representan alrededor del 14% de todos los incidentes de seguridad registrados, en un contexto en el que el uso de estas herramientas ha crecido un 890% en apenas un año, según el informe 2025 State of GenAI Report de Palo Alto Networks. ​


La nueva frontera del daño tecnológico


La investigación de Kubica describe un ecosistema en el que los modelos generativos se integran en sectores críticos —desde la sanidad hasta los servicios financieros o el transporte— a través de cadenas complejas de proveedores, desarrolladores, integradores y usuarios finales. En este entorno, identificar quién es responsable cuando un sistema de IA interviene en decisiones que generan daños económicos, personales o afectando a la privacidad, se convierte en un reto jurídico que las categorías clásicas de culpa, causalidad y riesgo no siempre resuelven con claridad.

El trabajo subraya que la estructura de estos sistemas —conectados, dependientes de datos externos y a menudo opacos por el uso de modelos de aprendizaje automático— agrava la dificultad de prever y rastrear los daños, así como de atribuirlos a un responsable concreto. La investigación destaca que la combinación de opacidad técnica y multiplicidad de actores implicados complica la reconstrucción del papel del sistema en la decisión y la determinación de obligaciones de diligencia claramente asignadas. ​


Más allá de la “persona electrónica”


Kubica revisa también los debates europeos sobre la posibilidad de reconocer formas de “personalidad electrónica” a ciertos sistemas autónomos, una propuesta que fue finalmente descartada por expertos al considerarse inapropiado equiparar a las máquinas con los derechos y obligaciones que corresponden a las personas físicas y jurídicas. La investigación concluye que desviar la responsabilidad hacia la máquina sería jurídicamente improcedente y socialmente problemático, porque diluiría los incentivos de diseñadores, fabricantes y operadores para invertir en seguridad, explicabilidad y mecanismos efectivos de reparación.

En su lugar, el análisis detalla cómo la Unión Europea ha optado por un marco regulatorio basado en el nivel de riesgo. Este enfoque, materializado en la Ley de Inteligencia Artificial, impone estrictas obligaciones de transparencia, trazabilidad y supervisión humana a los sistemas de alto riesgo, buscando garantizar que la innovación tecnológica no comprometa la seguridad jurídica ni los derechos fundamentales.


Una llamada a la acción regulatoria


La investigación sitúa estas reflexiones en el contexto del nuevo marco europeo de inteligencia artificial, que clasifica los sistemas por niveles de riesgo y persigue garantizar que sean seguros, transparentes, trazables, supervisados por personas y respetuosos con los derechos fundamentales y el medio ambiente. Kubica advierte que reducir en exceso las barreras regulatorias puede acelerar el desarrollo tecnológico, pero también dejar a las personas expuestas a daños difíciles de reparar, mientras que una sobrerregulación podría frenar la competitividad europea en un entorno global marcado por la carrera de la IA.

El estudio plantea que los próximos años serán decisivos para consolidar un modelo europeo que combine competitividad tecnológica, protección de derechos fundamentales y confianza social en la inteligencia artificial, y apunta a que el derecho de daños está llamado a desempeñar un papel central en esa arquitectura, ofreciendo vías de reparación efectivas sin frenar la adopción responsable de estas herramientas.


Sobre la autora


María L. Kubica es profesora de Derecho Civil y Chair del Spanish Hub del European Law Institute. Su investigación se centra en la modernización del derecho de daños en contextos de alta complejidad tecnológica, con especial atención a los sistemas de inteligencia artificial y a los desafíos que plantean para la responsabilidad civil, la prueba y la protección de los consumidores.


Sobre la Cátedra Internacional ENIA en IA Generativa: retos y riesgos


La Cátedra Internacional ENIA en IA Generativa: retos y riesgos forma parte de las iniciativas impulsadas en el marco de la Estrategia Nacional de Inteligencia Artificial y cuenta con financiación de la Unión Europea a través del instrumento Next Generation EU. Su misión es estudiar de manera interdisciplinar las implicaciones éticas, jurídicas, sociales y económicas de la IA generativa y promover marcos de gobernanza que permitan una adopción responsable de estas tecnologías en ámbitos públicos y privados. La Cátedra impulsa proyectos de investigación, actividades formativas y espacios de diálogo entre academia, administraciones, empresas y sociedad civil, con el objetivo de contribuir a que el desarrollo de la IA se alinee con los valores y principios democráticos europeos.


Contacto de prensa


EDUARDO MARTINEZ

 
 
 

Comentarios


MO (500 x 200 px).png

Para cualquier pregunta escribe a nuestro email: info@origin-ai.org

image.png
ceu.png
LOGO COLOR.jpg
nextgeneu_en.jpg

Paseo de Juan XXIII nº 10, 28040 Madrid

© 2025 por la Universidad CEU San Pablo.

bottom of page