Estados Unidos da luz verde al uso de obras con copyright para entrenar inteligencia artificial: una sentencia con profundas implicaciones para los creadores

Un tribunal federal de California ha dictado una sentencia que podría redefinir el equilibrio entre innovación tecnológica y derechos de autor. El fallo, emitido por el juez William Alsup, valida como «uso justo» el entrenamiento de modelos de inteligencia artificial (IA) con obras protegidas por copyright, incluso cuando estas se obtienen de bibliotecas digitales no autorizadas. La decisión favorece a la empresa Anthropic, desarrolladora del modelo Claude AI, y ha encendido las alarmas en el mundo editorial, artístico y periodístico.

Un caso clave: autores contra Anthropic

La demanda, presentada por los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, acusaba a Anthropic de utilizar copias digitalizadas de libros impresos —algunas de ellas obtenidas de forma no autorizada— para entrenar sus modelos de lenguaje. Según los demandantes, se trataba de una violación sistemática del copyright.

La defensa de Anthropic argumentó que el uso de los textos era transformador: los modelos de IA no reproducen literalmente las obras, sino que las procesan estadísticamente para aprender patrones del lenguaje. En este contexto, el juez Alsup respaldó esa interpretación, comparándola incluso con el aprendizaje de los niños. “La tecnología en cuestión es una de las más transformadoras que veremos en nuestra vida”, escribió en su fallo, y añadió que “el objetivo de la Ley de Copyright no es proteger a los autores de la competencia”.

¿Dónde está el límite? La piratería, el único matiz

Aunque Alsup dio la razón a Anthropic en casi todos los puntos, sí reconoció una excepción: el uso de libros pirateados. En este aspecto, la corte abrirá un proceso para determinar posibles indemnizaciones. Según el fallo, la digitalización de obras a partir de fuentes ilegales, incluso si no se utilizan directamente para entrenamiento, no puede considerarse uso justo.

Este matiz es significativo, ya que podría limitar la impunidad con la que algunas empresas de IA han recolectado datos, especialmente en los inicios de la carrera por construir modelos generativos.

Una jurisprudencia que afecta a toda la industria

La resolución del tribunal de California marca un precedente judicial potente que podría influir en otros litigios en curso. En Estados Unidos, se acumulan demandas similares contra empresas como OpenAI, Meta, Stability AI y Midjourney. Esta última ha sido demandada en junio por Disney y Universal por utilizar imágenes de sus personajes protegidos para entrenar su generador de imágenes, sin autorización.

El caso ha unido a dos gigantes del entretenimiento que normalmente son rivales. En su denuncia, califican a Midjourney como “un pozo sin fondo de plagio” y exigen responsabilidades por infringir masivamente los derechos de autor.

Los medios de comunicación, los otros grandes perjudicados

El impacto de estas prácticas también se siente en la industria editorial y periodística. Muchos medios han visto cómo sus artículos, guías y análisis son utilizados sin permiso para alimentar modelos de IA. Algunos, como AppleInsider, han denunciado la reproducción parcial o total de sus contenidos en respuestas generadas por IA, a menudo mal combinados y descontextualizados, lo que puede inducir a error al lector y dañar la reputación del medio.

Además, este uso sin visitas reales al sitio web perjudica su modelo de negocio basado en la publicidad. Según estimaciones de The Atlantic y New York Times, el auge de los asistentes basados en IA podría suponer una caída del 25 % en el tráfico orgánico para ciertos sitios informativos durante los próximos años.

Apple y otros enfoques más éticos

No todas las tecnológicas han seguido el mismo camino. Apple, por ejemplo, ha optado por licenciar contenido de forma directa para entrenar sus modelos. En 2024, firmó acuerdos con Shutterstock, The New York Times y otras editoriales, y recientemente ha ofrecido millones a medios de comunicación para acceder legalmente a sus archivos.

Esta vía contractual también ha sido explorada por empresas como OpenAI, que ha llegado a acuerdos con Axel Springer, Le Monde y Financial Times en Europa. Sin embargo, muchos otros actores en la IA siguen entrenando modelos sin consentimiento ni retribución, escudándose en el argumento del “uso justo”.

Regulación y respuesta institucional: ¿una carrera desigual?

Mientras en Estados Unidos las grandes tecnológicas presionan para bloquear regulaciones estatales sobre IA durante al menos una década, en Europa se avanza con pasos firmes. El Parlamento Europeo ha aprobado en 2024 la Ley de Inteligencia Artificial (AI Act), que impone obligaciones de transparencia sobre los datos utilizados en el entrenamiento de modelos generativos y exige una trazabilidad clara del contenido.

Además, varias editoriales europeas han bloqueado el acceso a sus archivos mediante robots.txt, aunque esta medida solo es eficaz contra scrapers que respetan las reglas. Los que no lo hacen —y son mayoría, según expertos en ciberseguridad— siguen accediendo a los contenidos.

El debate de fondo: ¿puede una IA aprender como un humano?

Uno de los argumentos más polémicos del juez Alsup fue comparar el entrenamiento de modelos con el aprendizaje humano. Sin embargo, muchos expertos discrepan. Mientras un estudiante puede leer y aprender dentro de un contexto pedagógico regulado, una IA procesa grandes volúmenes de contenido para generar productos comerciales, sin supervisión ni límites éticos claros.

“Equiparar el entrenamiento de una IA con la educación de un niño es una falacia”, señala el profesor Lawrence Lessig, experto en propiedad intelectual de Harvard. “Una IA no tiene derechos, ni deberes, ni conciencia. Es una herramienta creada para un fin económico”.


Conclusión: una puerta abierta al uso masivo de contenidos sin pagar

La sentencia del tribunal californiano abre la puerta al uso de prácticamente cualquier contenido publicado para entrenar inteligencia artificial en EE. UU., siempre que no provenga de una fuente pirata. Esto supone un respaldo legal sin precedentes a las grandes tecnológicas, que podrán seguir construyendo modelos cada vez más potentes a costa de creadores, medios y editores.

La industria cultural y periodística, mientras tanto, se enfrenta a un nuevo dilema: adaptarse, negociar o resistir. El debate está servido, y lo que está en juego no es solo la propiedad intelectual, sino el futuro del trabajo creativo en la era de la inteligencia artificial.

vía: Noticias inteligencia artificial

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×