top of page

Cuando los creativos se oponen al uso de sus obras con IA: por qué Europa apuesta por modelos “limpios”


  • Un análisis de derechos de autor revela cómo los litigios globales podrían estar forzando un cambio estructural en el entrenamiento de IA generativa

  • Frente a las dudas sobre la licitud del entrenamiento de modelos de IA, comienzan a surgir acuerdos de licencia entre las industrias creativas y las tecnológicas que pueden redefinir la forma en la que se monetizan los contenidos


Madrid, 18 de febrero de 2026.


Mientras los Estados aún debaten cómo regular la IA generativa, proliferan las demandas por infracción de derechos de propiedad intelectual interpuestas por músicos, periodistas y artistas visuales que quieren impedir el uso de sus obras para el entrenamiento de modelos de IA generativa. Un tribunal de Múnich dictaminó en noviembre que entrenar un modelo con letras de canciones bajo la excepción de "minería de textos y datos" no era válido porque el entrenamiento no se limitaba a leer las obras, sino que reproducía (memorizaba) parte del contenido. La sentencia aún no es firme, pero introduce una nueva perspectiva en el debate sobre la relación entre propiedad intelectual e inteligencia artificial.


Cristina Mesa, abogada especialista en propiedad intelectual e industrial y Derecho Digital e investigadora de la Cátedra ENIA en IA Generativa: retos y riesgos, acaba de publicar un estudio que documenta cómo esa presión litigiosa está generando un cambio inesperado: modelos "limpios", construidos no a pesar de la regulación, sino gracias a ella, están ganando terreno en el mercado europeo.


La estrategia del scraping: funciona hasta que no funciona


Durante años, la industria tecnológica se ha nutrido de información publicada en Internet en el buen entendido de que la creación de negocios secundarios (comparadores de vuelos, seguros, plataformas…) era beneficiosa para el consumidor final. En este esquema, el scraping o raspado de Internet se asumió lícito siempre que no hubiese una prohibición contractual expresa o no se infringieran otros derechos derechos de propiedad intelectual, como el derecho sui generis, sobre bases de datos.


Con la llegada de la IA generativa, y su posible efecto sustitutivo para ciertas profesiones, el debate se ha centrado especialmente en las industrias creativas. Las principales compañías tecnológicas que desarrollan modelos de IA generativa continúan apelando a las excepciones tradicionales sobre uso justo (fair use) en Estados Unidos, o la minería de textos y datos en Europa. Pero las industrias creativas no aceptan que sus obras puedan ser utilizadas sin autorización y sin remunerar a los autores. Las demandas han proliferado especialmente en Estados Unidos (The New York Times contra OpenAI. Artistas visuales contra Stability AI. Compositores contra prácticamente todos…), donde encontramos resultados heterogéneos que, de momento, mantienen el debate abierto.


La excepción europea: cuando opt-out significa protección real


A diferencia de Estados Unidos, Europa parecía haber establecido marcos más claros. La Directiva 2019/790 sobre el mercado único digital permite la minería de textos y datos con dos condiciones: posibilidad de extracción y reproducción de contenidos, gratuitamente, para investigación pública sin límites. También para uso comercial, pero, en este último caso, siempre que los titulares de las obras que se vayan a utilizar no hayan optado por excluirse. El matiz es un cambio de paradigma: pone la carga en quién desea usar el contenido, no en quién desea protegerlo.


El Reglamento de IA introduce mecanismos adicionales para facilitar el cumplimiento y, con ello, el respeto a los derechos de propiedad intelectual. Así, el Reglamento exige que los proveedores de modelos de propósito general publiquen información sobre qué datos usaron y cómo gestionaron las exclusiones. No es opcional. Y eso, paradójicamente, ha abierto una oportunidad comercial en la que la existencia de modelos de IA limpios y trazables puede ser una ventaja competitiva.


Surgen acuerdos que muestran que es posible una explotación coordinada


A modo de ejemplo, en 2024 Grupo Prisa llegó a un acuerdo con OpenAI para licenciar contenido del grupo ---El País, As, Expansión, otros títulos--- con compensación económica. El acuerdo fue anunciado discretamente, pero en el sector tuvo impacto. Otros editores comenzaron a moverse.

 

¿Qué ganan las industrias culturales? Compensación y control. ¿Qué gana OpenAI y otros desarrolladores?


Certeza legal y mayor calidad. Documentación verificable de que el contenido fue licenciado. Auditoría más clara.


Otro ejemplo relevante es el de Adobe Firefly, el generador de imágenes de Adobe, que fue entrenado exclusivamente con contenido licenciado de Adobe Stock y otros acervos autorizados. Fue una decisión deliberada. Y resultó en un diferenciador comercial inesperado: Adobe ofrece a sus clientes empresariales una cobertura de responsabilidad civil. Si la imagen generada viola derechos de autor, Adobe responde ¿Por qué puede? Porque sabe de dónde proceden los contenidos con los que ha entrenado sus modelos de IA.


La paradoja de Europa: poder regulatorio, dependencia tecnológica


Aquí viene el problema real. Europa puede exigir trazabilidad en modelos desarrollados en la UE, pero casi ninguno de los modelos base más potentes se desarrolla en Europa. GPT, Gemini, Grok… son todos de fuera.


Muchas startups europeas construyen sobre estos cimientos extranjeros, lo que limita su control real sobre los estándares de entrenamiento.


Esto genera una asimetría peculiar. Por un lado, Europa establece estándares regulatorios cada vez más exigentes. Por otro, sus propios actores industriales dependen de infraestructuras que no controlan. El resultado es que, de momento, el cambio hacia modelos limpios no ha sido un efecto masivo de la regulación europea, sino más bien movimientos voluntarios por credibilidad.


El cálculo real: cuándo vale la pena pagar por limpiar


Hay un factor que la investigación no puede evitar: los modelos con licencias remuneradas son más caros. Si, al final, la jurisprudencia estadounidense valida el fair use sin compensación ---que aún es posible--- los clientes preguntarán por qué pagaron más. Es un movimiento estratégico en condiciones de altísima incertidumbre. Nadie sabe hoy si el cumplimiento normativo europeo terminará siendo el estándar global o una curiosidad regulatoria de un mercado fragmentado.


Sobre la autora


Cristina Mesa es abogada especializada en Propiedad Intelectual y derecho de autor aplicado a nuevas tecnologías, LL.M., e investigadora de la Cátedra ENIA en IA Generativa: retos y riesgos. Ha trabajado en litigios de derechos de autor y asesoría a creadores, editoriales y desarrolladores de tecnología sobre los límites legales en el uso de contenido para entrenar sistemas de IA.


Sobre la Cátedra


La Cátedra Internacional ENIA en IA Generativa: retos y riesgos forma parte de las iniciativas impulsadas en el marco de la Estrategia Nacional de Inteligencia Artificial y cuenta con financiación de la Unión Europea a través del instrumento Next Generation EU. Su misión es estudiar de manera interdisciplinar las implicaciones éticas, jurídicas, sociales y económicas de la IA generativa y promover marcos de gobernanza que permitan una adopción responsable de estas tecnologías en ámbitos públicos y privados. La Cátedra impulsa proyectos de investigación, actividades formativas y espacios de diálogo entre academia, administraciones, empresas y sociedad civil, con el objetivo de contribuir a que el desarrollo de la IA se alinee con los valores y principios democráticos europeos.

 

Contacto de prensa:

 
 
 

Comentarios


MO (500 x 200 px).png

Para cualquier pregunta escribe a nuestro email: info@origin-ai.org

image.png
ceu.png
LOGO COLOR.jpg
nextgeneu_en.jpg

Paseo de Juan XXIII nº 10, 28040 Madrid

© 2025 por la Universidad CEU San Pablo.

bottom of page