top of page

El potencial transformador de la IA exige una responsabilidad sin precedentes

Actualizado: 2 ene




  • La Cátedra ENIA presenta un marco ético proactivo y robusto para la Inteligencia Artificial de Propósito General

  • Las directrices éticas europeas deben contemplarse como un marco integral que atraviesa todo el ciclo de vida de los sistemas de IA


Madrid, 11/12/2025. La abogada especialista en Inteligencia Artificial, Gabriela Busellini, ha desarrollado en el marco de la Cátedra ENIA “IA Generativa: Retos y riesgos” una propuesta de enfoque ético proactivo para la Inteligencia Artificial de Propósito General (GPAI), alineada con el nuevo Reglamento de IA de la Unión Europea y orientada a salvaguardar derechos fundamentales y confianza social.

La GPAI engloba sistemas de IA muy versátiles, capaces de aprender y adaptarse para realizar múltiples tareas, desde generar textos e imágenes hasta analizar datos o asistir en decisiones complejas. A diferencia de aplicaciones de IA diseñadas para una función muy concreta, estas tecnologías pueden reutilizarse en muchos sectores (educación, salud, administración, empresas), lo que multiplica tanto sus beneficios potenciales como los riesgos si se usan sin suficientes garantías, lo que las convierte en un auténtico punto de inflexión tecnológico.

Por eso la investigación de Gabriela Busellini se centra en cómo dotar a la GPAI de un marco ético sólido y proactivo que permita innovar sin poner en peligro derechos fundamentales ni la confianza de la ciudadanía.


Inflexión y responsabilidad


La investigación parte de una idea central: la IA de propósito general supone un punto de inflexión por su capacidad de aprender, adaptarse y ejecutar tareas tradicionalmente asociadas a la inteligencia humana, pero añade que este potencial transformador exige una responsabilidad sin precedentes por parte de quienes diseñan, desarrollan y despliegan estas tecnologías.

El trabajo subraya que las GPAI no son neutras, sino que reflejan valores y sesgos de sus creadores, por lo que un enfoque ético reactivo resulta insuficiente ante riesgos como la amplificación de desigualdades o la erosión de la confianza social. ​


Normativa y ética


En este contexto, el estudio analiza el Reglamento europeo (2024/1689) como un paso esencial en la gobernanza de la IA, pero insiste en que el cumplimiento normativo debe complementarse con un compromiso ético continuo que priorice la dignidad humana, los derechos fundamentales y el bienestar social.

La autora propone entender las directrices éticas como un marco integral que atraviesa todo el ciclo de vida de los sistemas de IA, desde el diseño y la experimentación hasta el despliegue y la monitorización.


Tres pilares


El trabajo identifica tres pilares clave: un enfoque centrado en la persona, que sitúa la protección de la dignidad y los derechos en el núcleo de cualquier aplicación de IA; la transparencia y explicación de los sistemas, evitando “cajas negras” y permitiendo comprender y cuestionar las decisiones automatizadas; y la responsabilidad y rendición de cuentas, con líneas claras sobre quién responde por daños y qué mecanismos de reparación existen.


Dilemas éticos


Busellini examina también la taxonomía basada en riesgos del citado reglamento europeo, recordando que el riesgo no reside solo en la tecnología, sino en su contexto de uso. A partir de ejemplos como los modelos de lenguaje de gran tamaño, capaces tanto de impulsar la innovación como de propagar desinformación, o los sistemas de reconocimiento facial, útiles en seguridad, pero problemáticos por sus posibles efectos en la privacidad y la no discriminación, la autora muestra cómo los dilemas éticos emergen de la tensión entre beneficios y posibles impactos negativos.


Enfoque múltiple


La propuesta aboga por un enfoque multifacético que implique a desarrolladores, responsables políticos, sociedad civil y ciudadanía, mediante estándares técnicos abiertos y certificaciones que faciliten la construcción de sistemas responsables. El estudio subraya además la importancia de la educación y la concienciación pública en alfabetización digital, así como la necesidad de una colaboración interdisciplinar entre informática, derecho, filosofía, sociología y ética para abordar la complejidad de la IA de propósito general.


Algo más que un añadido


La investigación defiende que la ética debe ser un principio rector desde el inicio y no un añadido tardío, si se quiere asegurar que la IA contribuya a mejorar la sociedad en lugar de socavar sus fundamentos.

El texto concluye con un llamamiento a la proactividad ética: la responsabilidad de orientar la GPAI hacia el bien común debe ser compartida, y el momento de actuar es ahora.



Sobre la autora y la cátedra


Gabriela Busellini es abogada especialista en Inteligencia Artificial y es investigadora de la Cátedra ENIA “IA Generativa: Retos y riesgos”, un espacio dedicado al análisis crítico y a la propuesta de marcos responsables para el desarrollo y la implementación de tecnologías de IA avanzada. La cátedra impulsa investigaciones orientadas a apoyar la innovación responsable, el respeto a los derechos fundamentales y la construcción de confianza social en la nueva era de la IA.



Contacto de prensa

Eduardo Martínez


 
 
 

Comentarios


MO (500 x 200 px).png

Para cualquier pregunta escribe a nuestro email: info@origin-ai.org

image.png
ceu.png
LOGO COLOR.jpg
nextgeneu_en.jpg

Paseo de Juan XXIII nº 10, 28040 Madrid

© 2025 por la Universidad CEU San Pablo.

bottom of page