La irrupción de la inteligencia artificial generativa (IA generativa) ha desencadenado una crisis estructural en el sistema global de propiedad intelectual, cuestionando los pilares tradicionales del derecho de auto. Modelos como GPT, Stable Diffusion o Sora pueden producir obras con un grado de sofisticación que rivaliza con la creación humana. Sin embargo, esta aparente democratización de la creatividad ha sido posible, en muchos casos, mediante el uso no autorizado de obras protegidas, alimentando modelos con datos sin licencia ni consentimiento.
El impacto disruptivo de esta tecnología no solo afecta al marco jurídico, sino también a la sostenibilidad económica de las industrias creativas, la confianza de los autores en el ecosistema digital y los mecanismos tradicionales de enforcement. De acuerdo con el análisis de Lex Machina (2024), los litigios tecnológicos relacionados con entrenamiento de modelos aumentaron un 200% en solo un año, evidenciando el inicio de una nueva era de disputas judiciales y éticas.
Esta transformación está ocurriendo en un contexto de vacío normativo. Normas como el Acuerdo sobre los ADPIC o las disposiciones de la OMPI fueron concebidas para un mundo analógico, sin prever el uso masivo de datos creativos por sistemas automatizados. La falta de una definición globalmente armonizada sobre el estatus legal de las obras generadas por IA, el uso justo (fair use) en contextos transnacionales, o la posibilidad de compensación a titulares por entrenamiento con sus obras, ha fragmentado las respuestas legales.
Este artículo propone una lectura sobre la problemática, combinando una visión jurídica, tecnológica, social y económica, a partir de cinco bloques temáticos que analizan casos relevantes, dilemas conceptuales, modelos regulatorios emergentes, impactos industriales y propuestas innovadoras para repensar el equilibrio entre creación y tecnología.
El caso iniciado por Getty Images contra Stability AI representa una de las demandas más significativas en torno al uso no autorizado de datos para entrenamiento de modelos. Getty alega que la empresa utilizó más de 12 millones de imágenes sin licencia para entrenar el modelo Stable Diffusion, generando resultados que replican marcas de agua y composiciones protegidas, lo que constituye una infracción directa a sus derechos de autor (Financial Times).
La defensa de Stability AI se basa en tres pilares: (1) que las imágenes generadas son "pastiche", protegidas por la excepción al copyright del Reino Unido; (2) que el entrenamiento se realizó fuera del territorio británico, por lo tanto fuera de jurisdicción; y (3) que la responsabilidad legal debe recaer sobre los usuarios, no sobre el proveedor de IA. Este argumento tensiona los límites del enforcement internacional, abriendo la posibilidad de que se consoliden "paraísos de entrenamiento" en países con normas laxas.
En una demanda sin precedentes, The New York Times denunció a OpenAI y Microsoft por reproducción literal de más de 100 artículos mediante ChatGPT, evadiendo muros de pago y comprometiendo su modelo de negocio basado en suscripciones. El medio sostiene que esta conducta vulnera los derechos patrimoniales, pero también representa una forma de competencia desleal (Reuters).
En abril de 2025, el juez Lewis Stein rechazó el intento de desestimiento de OpenAI, avalando la teoría de que inducir a los usuarios a generar respuestas infractoras puede constituir una forma activa de violación. Este caso podría redefinir los límites del uso justo y establecer precedentes sobre la responsabilidad indirecta de las plataformas.
La IA generativa es simultáneamente una herramienta transformadora y una fuerza disruptiva. Por un lado, permite a creadores acceder a nuevas formas de expresión. Por otro, se construye sobre bases de datos que contienen obras sin licencia, generando lo que muchos denominan una "expropiación creativa" masiva.
La Organización Mundial de la Propiedad Intelectual (OMPI) estima que más del 87% de los modelos actuales fueron entrenados con contenido sin licencia, lo que plantea serias dudas sobre la legalidad de su operación y la justicia de sus beneficios.
Impacto por sectores:
a) Modelo europeo: El AI Act como respuesta integral
El AI Act aprobado por la Unión Europea propone medidas como:
Aunque esta normativa ha sido celebrada como pionera, grandes plataformas tecnológicas sostienen que aplicar marcas de agua es inviable en modelos multimodales o de lenguaje natural, argumentando complejidades técnicas.
b) Compensación colectiva e innovación en licencias
c) Reformas legales por países
Si no se implementan mecanismos claros y efectivos de protección, la IA generativa podría desencadenar un colapso del ecosistema creativo. Las consecuencias potenciales incluyen:
Frente a este panorama, emergen soluciones propositivas:
La crisis provocada por la IA generativa no es exclusivamente técnica ni legal: es una cuestión cultural y ética sobre qué valor asignamos a la creatividad humana frente a la automatización.
Casos como Getty y NYT marcarán las líneas jurisprudenciales de la próxima década, pero el verdadero reto radica en construir un modelo de convivencia donde la innovación tecnológica se base en principios de transparencia, equidad y respeto por los creadores.
Hacia 2030, nos enfrentamos a una disyuntiva: permitir el colapso de la creatividad profesional por falta de protección efectiva, o fomentar una reinventación colectiva, con nuevos contratos sociales, regulaciones inteligentes y tecnologías al servicio de la justicia cultural.
Como estableció la Corte de Delaware en el caso 2023-Art-IA, "la ley debe proteger tanto la innovación como el sudor creativo que la hace posible". La decisión está en manos de reguladores, plataformas, autores y consumidores: ¿perpetuamos el modelo extractivo o damos paso a una era de inteligencia artificial con conciencia de autoría?