Las directrices éticas en IA están transformándose de recomendaciones voluntarias en obligaciones legales
- Comunicado de Prensa

- 5 ene
- 4 Min. de lectura

Una investigación jurídica revela cómo el Reglamento Europeo de IA, la OCDE y la UNESCO están redefiniendo la gobernanza global de la IA generativa
Identifica tres marcos internacionales clave y advierte que el éxito dependerá de mecanismos efectivos de cumplimiento y supervisión
Madrid, 5 de enero de 2026.
La gobernanza ética de la Inteligencia Artificial Generativa ha dejado de ser un debate académico para convertirse en una arquitectura jurídica que vinculará a desarrolladores, empresas y gobiernos. Gabriela Busellini, abogada especialista en IA y miembro de la Cátedra ENIA en IA Generativa: retos y riesgos de la Universidad CEU San Pablo, ha realizado una investigación exhaustiva que desgrana el valor normativo de las directrices éticas internacionales y su capacidad transformadora para establecer obligaciones reales. El hallazgo principal: las directrices éticas no son simples recomendaciones, sino un puente gradual hacia obligaciones legales vinculantes que ya están remodelando la regulación de sectores críticos como el financiero y la tecnológica.
De principios a obligaciones: la transición normativa
La investigación identifica que las directrices éticas adquieren valor normativo cuando son formalmente adoptadas por gobiernos e instituciones internacionales, se convierten en referencias obligatorias en licitaciones y contratos, y se regulan mediante mecanismos de supervisión y sanción por incumplimiento. El Considerando 27 del Reglamento Europeo de IA (2019), aunque no vinculante en su formulación inicial, ha evolucionado hacia propuestas de regulación que hacen obligatorio el cumplimiento de principios como la explicabilidad, transparencia y control humano. La Comisión Europea ya trabaja en convertir estos marcos éticos en obligaciones legales operacionales para todos los desarrolladores y usuarios en la Unión Europea.
Tres marcos internacionales que rediseñan la gobernanza global
La investigación analiza tres pilares fundamentales: el Reglamento Europeo de IA, que establece estándares vinculantes mediante soft law que influye decisivamente en futuras regulaciones sectoriales; los Principios de la OCDE sobre IA (2019), adoptados por más de 50 países, que han convertido recomendaciones voluntarias en obligaciones de facto a través de la implementación en marcos regulatorios nacionales; y la Declaración de la UNESCO sobre la Ética de la IA (2021), que proporciona un pacto ético universal que complementa los marcos europeo y de la OCDE, enfatizando beneficencia, justicia, dignidad humana, responsabilidad, transparencia e inclusión.
Una contribución clave de esta investigación es demostrar que estos marcos no compiten, sino que se refuerzan mutuamente: mientras la OCDE y la UE proporcionan obligaciones operacionales y técnicas, la UNESCO añade dimensiones culturales, sociales y participativas que aseguran una gobernanza más inclusiva y democrática.
El desafío: de principios a mecanismos de cumplimiento
Busellini identifica que el verdadero cuello de botella no es la ausencia de directrices éticas, sino la debilidad de los mecanismos de supervisión, auditoría y sanción. El éxito en la gobernanza de la IA generativa dependerá de cómo estas directrices se convierten en regulaciones vinculantes, certificaciones técnicas, auditorías independientes y procedimientos de responsabilidad clara.
El ejemplo del sector financiero en la UE ---que impone transparencia en algoritmos de crédito y define mecanismos de responsabilidad--- demuestra que los principios éticos pueden formalizarse en marcos legales efectivos que fomentan innovación segura.
Responsabilidades en la IA generativa: un imperativo inmediato
La investigación subraya asimismo que la IA generativa, por sus características de autonomía y creatividad, plantea desafíos ético-jurídicos específicos: responsabilidad por contenido generado automáticamente, derechos de autor, sesgos en datos de entrenamiento, y riesgos de desinformación a escala. Sin directrices normativas claras operacionalizadas, estos riesgos se multiplicarán. Académicos, legisladores y actores tecnológicos deben trabajar conjuntamente para convertir principios en estándares de regulación y control que aseguren el desarrollo responsable de la IA.
El imperativo: gobernanza normativa que sirva al bien común
Las directrices éticas en IA representan una oportunidad histórica para construir una regulación que equilibre innovación y protección de derechos. Sin embargo, ese equilibrio requiere que gobiernos, instituciones internacionales y empresas cumplan tres condiciones: fortalecer mecanismos verificables de cumplimiento, armonizar marcos regulatorios nacionales en torno a principios compartidos, y crear espacios de diálogo continuo entre academia, tecnología, administración y sociedad civil.
En la era de la IA generativa, donde la innovación avanza a pasos acelerados, la ausencia de gobernanza normativa efectiva no solo fracasará en proteger derechos, sino que amplificará desigualdades y erosionará la confianza pública. La transición de la ética recomendada a la normativa obligatoria no es opcional: es estructural.
Sobre la autora
Gabriela Busellini es abogada especialista en Inteligencia Artificial y derechos digitales, miembro investigador de la Cátedra ENIA en IA Generativa: retos y riesgos de la Universidad CEU San Pablo. Su trabajo se centra en analizar cómo los marcos éticos internacionales se transforman en obligaciones jurídicas operacionales, y en proponer mecanismos de gobernanza que aseguren una adopción responsable de la IA generativa en contextos legales, empresariales y públicos.
Sobre la Cátedra Internacional ENIA en IA Generativa: retos y riesgos
La Cátedra Internacional ENIA en IA Generativa: retos y riesgos forma parte de las iniciativas impulsadas en el marco de la Estrategia Nacional de Inteligencia Artificial y cuenta con financiación de la Unión Europea a través del instrumento Next Generation EU. Su misión es estudiar de manera interdisciplinar las implicaciones éticas, jurídicas, sociales y económicas de la IA generativa y promover marcos de gobernanza que permitan una adopción responsable de estas tecnologías en ámbitos públicos y privados. La Cátedra impulsa proyectos de investigación, actividades formativas y espacios de diálogo entre academia, administraciones, empresas y sociedad civil, con el objetivo de contribuir a que el desarrollo de la IA se alinee con los valores y principios democráticos europeos.
Contacto de prensa:
Eduardo Martínez





Comentarios