[PR]

OpenAI cambia abruptamente su política de derechos de autor para «Sora 2» de «exclusión voluntaria» a «inclusión voluntaria», pero la preocupación de Hollywood persiste


Una tormenta de controversia en torno al último modelo de generación de video por IA de OpenAI, «Sora 2», ha provocado un cambio significativo en su política de derechos de autor. Inicialmente, la compañía presentó un sistema de «exclusión voluntaria» (opt-out), que requería que los titulares de derechos de autor solicitaran la eliminación de su obra, una medida calificada por los críticos como «la lógica de un ladrón». En respuesta a las críticas, OpenAI ha dado marcha atrás, anunciando un cambio a un modelo de «inclusión voluntaria» (opt-in) donde los titulares de derechos deben otorgar permiso para el uso. Sin embargo, este cambio de política no aborda el problema fundamental de los datos de entrenamiento de la IA, lo que agrava la preocupación de la industria del entretenimiento, especialmente la de Hollywood.

 

Críticas al sistema de «exclusión voluntaria» como «la lógica de un ladrón»

 

La política inicial revelada junto con el anuncio de Sora 2 fue un shock para los titulares de derechos de autor. Estipulaba que si los creadores no querían que su trabajo se utilizara en la aplicación Sora, tendrían que solicitar proactivamente su exclusión.

Este enfoque provocó duras críticas de expertos legales. Ray Sealey, abogado del bufete KHIKS, señaló: «Es el equivalente a un ladrón que afirma: ‘Tengo derecho a robar todo lo que hay en tu casa porque nunca me dijiste explícitamente que me detuviera'». Simon Pullman, abogado de Pryor Cashman, se hizo eco de este sentimiento, declarando: «Están declarando de facto: ‘En el momento en que creas tu obra, tenemos derecho a usarla, a menos que te niegues activamente'». Analizó esto como una maniobra típica de las empresas tecnológicas para establecer hechos consumados antes de que la legislación pueda ponerse al día.

 

Un giro abrupto hacia la «inclusión voluntaria» en medio de la controversia

 

Mientras las redes sociales se inundaban de videos creados con Sora 2 —desde episodios personalizados de «South Park» hasta clips con Pikachu en «Salvar al soldado Ryan»—, el CEO de OpenAI, Sam Altman, anunció un cambio de rumbo.

En una publicación de blog, Altman afirmó: «Estamos escuchando a muchos titulares de derechos que están entusiasmados con esta nueva forma de ‘fan fiction interactivo’ y creen que esta nueva interacción aporta mucho valor. Sin embargo, quieren el derecho a especificar cómo se utilizan sus personajes (incluido el no ser utilizados en absoluto)». A continuación, aclaró que para la generación de personajes existentes, la política se cambiaría a un modelo de «inclusión voluntaria», que requiere el permiso explícito de los titulares de derechos.

Este nuevo enfoque será similar a cómo se gestiona la «apariencia» (likeness) personal. Una nueva función en Sora 2 permite a los usuarios insertarse en videos generados por IA, pero pueden revocar el permiso para que otros usen su imagen en cualquier momento.

 

El cambio de política no disipa las dudas fundamentales sobre los «datos de entrenamiento»

 

A pesar del giro hacia un sistema de inclusión voluntaria, muchos argumentan que el problema fundamental sigue sin resolverse. La cuestión clave reside en la distinción entre «salida» (output) y «entrada» (input).

Incluso si un titular de derechos no da su consentimiento, impidiendo así que sus personajes sean «generados» (output) por Sora 2, no se elimina la posibilidad de que su obra ya haya sido utilizada como «dato de entrada» (input) para el entrenamiento del modelo Sora. En otras palabras, aunque Sora no pueda generar a Darth Vader, podría haber aprendido de Darth Vader para crear otra cosa. Es prácticamente imposible para los titulares de derechos auditar el conjunto de datos de entrenamiento de OpenAI para verificar que su trabajo no ha sido utilizado.

Bryn Mooser, CEO del estudio de cine de IA Asteria, lo llama un «juego de manos». Afirma: «El hecho de que puedas poner un filtro no significa que no esté en el conjunto de datos», y argumenta que los estudios deberían cuestionar el uso de su propiedad intelectual en los datos de entrenamiento, no solo su potencial de generación.

 

¿Es el verdadero objetivo de OpenAI las redes sociales y no Hollywood?

 

Mooser analiza además el lanzamiento de Sora 2 como «una declaración de que a OpenAI no le importa Hollywood». Sugiere que el contenido generado por Sora 2 está probablemente destinado a la producción masiva de contenido viral y memes para redes sociales, en lugar de servir como una herramienta de alta calidad para la producción de cine y televisión.

«Esta es una señal de que no les importan las necesidades de Hollywood, las preocupaciones de los artistas por ser reemplazados por la IA, o los problemas de derechos de autor», dice Mooser. Para empresas como Asteria, que intentan integrar la IA en el proceso cinematográfico de manera ética, los movimientos de OpenAI amenazan con empañar la imagen de la IA para toda la industria.

La industria del entretenimiento se encuentra ahora en una encrucijada. Se insta a los gremios y a las organizaciones de titulares de derechos a no solo esperar las decisiones judiciales, sino a establecer sus propios estándares industriales y decidir cómo enfrentar esta nueva ola de tecnología con un debate serio y una acción decidida.