
¿Cuánto vale la creatividad humana? ¿1.500 millones de Dólares?
Esta es la cantidad que ha propuesto la empresa desarrolladora de IA, Anthropic, como parte de un acuerdo transaccional para archivar una demanda multimillonaria presentada en su contra por miles de artistas, creadores y titulares de derecho de propiedad intelectual. El Juez ha ratificado el acuerdo. El precio se ha fijado.
Desde la irrupción de la IA en nuestras vidas, y como herramienta de uso masivo social, se ha destapado la caja de pandora de los derechos de autor. En efecto, la IA generativa se ha convertido en el nuevo punto de fricción entre la innovación tecnológica y los derechos de autor. El ciclo se repite, desde Gutenberg a Internet, la tecnología sacude nuestro ordenamiento jurídico. En particular, los derechos de autor.
Ya lo hemos aceptado y abrazado, ChatGPT, Claude o Midjourney son herramientas útiles y capaces de producir textos, imágenes o música de gran calidad, equiparables en muchos casos a los creados por humanos.
Ahora bien, su funcionamiento y calidad depende de un elemento tan fundamental como controvertido: el uso masivo de contenidos y obras, muchas de ellas protegidas por propiedad intelectual, como “datos” de entrenamiento. Eso es un hecho. Y así se ha reconocido por los responsables de varias empresas desarrolladoras de IA. Se han utilizado miles o millones de obras protegidas por derechos de autor para el entrenamiento de las herramientas de IA. Otros lo llaman el mayor robo de la historia de propiedad intelectual. Este hecho no ha pasado desapercibido para el legislador.
Desde el pasado 2 de agosto de 2025, el Reglamento de Inteligencia Artificial (RIA) de la Unión Europea impone a los proveedores de modelos de uso general una obligación fundamental: respetar los derechos de autor y, en particular, los opt-out ejercidos por los titulares que no deseen que sus obras se utilicen en el entrenamiento. Esta obligación, recogida en el artículo 53, exige a las empresas implementar mecanismos técnicos claros, protocolos legibles por máquina, metadatos o registros centralizados, que permitan excluir contenidos reservados. Es un cambio sustancial, que pretende garantizar que los creadores tengan un control efectivo sobre la utilización de sus obras en la era de la IA. El potencial económico sin control no sirve de nada.
La relevancia de este marco europeo se aprecia mejor a la luz del pacto alcanzado entre Anthropic y los titulares de derechos; compensación a los titulares afectados y obligación de la empresa de eliminar los archivos ilegales de sus sistemas, aunque mantendría la posibilidad de seguir utilizando las obras que hubiera adquirido de forma legítima.
Un precedente relevante en este terreno es el caso Authors Guild v. Google, en el que los tribunales estadounidenses consideraron que la digitalización masiva de libros por parte de Google, destinada a crear un motor de búsqueda que mostraba únicamente fragmentos limitados de obras protegidas, constituía un uso transformador amparado por la doctrina del fair use. Aunque Google copió íntegramente las obras, el tribunal entendió que el servicio no sustituía la lectura de los libros ni perjudicaba de forma sustancial su mercado, sino que incluso podía aumentar su visibilidad y ventas. Este fallo, confirmado en apelación y declarado firme por el Tribunal Supremo al rechazar revisar el asunto, refuerza la idea de que en Estados Unidos el fair use permite usos innovadores de obras con copyright siempre que aporten un valor distinto al original, un enfoque muy diferente al que rige en Europa.
Aquí, en la Unión Europea, el enfoque es mucho más restrictivo. El sistema no reconoce un principio general de “uso justo”, sino un catálogo cerrado de excepciones y limitaciones al derecho de autor. La Directiva 2019/790 introdujo la excepción de minería de datos, que permite analizar obras siempre que los titulares no se hayan opuesto mediante opt-out. Pero fuera de ese marco, el entrenamiento con obras protegidas sin autorización sigue siendo ilícito. La jurisprudencia española ha mostrado, en ocasiones, cierta flexibilidad, como en el caso Google de 2012, en el que el Tribunal Supremo entendió que mostrar fragmentos de noticias en buscadores era un uso transformador y no competía con la explotación normal de las obras. No obstante, se trata de excepciones aisladas en un sistema que sigue siendo mucho más rígido que el estadounidense.
Más allá del debate jurídico, está en juego un asunto de fondo: los modelos de IA necesitan contenidos de calidad para seguir siendo útiles y relevantes. Y esa calidad, por ahora, solo puede venir de la creación humana, fruto de la imaginación y la capacidad de proyectar hacia el futuro. Si las máquinas se alimentaran únicamente de datos sintéticos producidos por otras IA, se correría el riesgo de crear un ecosistema cerrado, incapaz de innovar. La verdadera originalidad sigue siendo patrimonio de los autores, y es precisamente esa riqueza la que la normativa busca proteger.
En este contexto, no resulta descabellado pensar que en el futuro sean las propias empresas desarrolladoras de IA quienes actúen como mecenas de los creadores humanos, contratando y remunerando a autores, artistas o periodistas para nutrir sus modelos con contenidos de calidad y valor artístico. La tensión entre ambos mundos es real, pero también lo es su interdependencia. El reto será construir un marco de respeto, transparencia y compensación que permita a la tecnología y a la creatividad convivir y potenciarse mutuamente, en lugar de neutralizarse.

Carlos Rivadulla
Counsel de ECIJA. Abogado especializado en propiedad intelectual, IA y tecnología. Árbitro de la Organización Mundial de Propiedad Intelectual y experto seleccionado del Sandbox de IA del Ministerio de Transformación Digital.
Artículo publicado originalmente en el Blog de Fide en El Confidencial





