Hollywood le declara la guerra a la IA: obligan a OpenAI a implementar controles más estrictos en Sora 2

El avance de la inteligencia artificial vuelve a chocar con los límites del derecho de imagen. Esta vez, la polémica gira en torno a Sora 2, la aplicación de OpenAI capaz de generar videos hiperrealistas utilizando la imagen y la voz de celebridades sin autorización previa. Tras semanas de tensión con los principales sindicatos y agencias de talento de Hollywood, la compañía de Sam Altman acordó implementar un modelo de consentimiento explícito (opt-in), marcando un hito en la relación entre tecnología y derechos de los artistas.


El caso que desató la tormenta

La controversia comenzó cuando Bryan Cranston, reconocido por su papel en Breaking Bad, descubrió que su semejanza había sido utilizada en videos generados por Sora 2 sin su permiso. En uno de los clips, incluso aparecía junto a una recreación digital de Michael Jackson. Cranston denunció el hecho a través de SAG-AFTRA, el poderoso sindicato de actores, que rápidamente se movilizó junto con agencias de talento como Creative Artists Agency (CAA) y United Talent Agency (UTA), y la propia Motion Picture Association (MPA).


Las entidades acusaron a OpenAI de haber diseñado un sistema de exclusión voluntaria (“opt-out”) que permitía el uso de rostros y voces de personas reales a menos que estas solicitaran expresamente su eliminación. Según CAA y UTA, este modelo representaba una “explotación, no innovación”, al vulnerar el derecho de los artistas a controlar y ser compensados por el uso de su identidad digital.


“Estaba profundamente preocupado no solo por mí mismo, sino por todos los artistas cuyo trabajo e identidad podrían ser explotados de esta manera”, declaró Cranston el lunes, agradeciendo posteriormente las nuevas medidas adoptadas por OpenAI.


Un acuerdo bajo presión y una victoria para la industria

Frente al creciente repudio público y las amenazas de acciones legales, OpenAI reaccionó con rapidez. Sam Altman, CEO de la compañía, anunció la implementación de controles más granulares sobre la generación de personajes y la adopción de un modelo de consentimiento previo (opt-in).


Con este cambio, la plataforma prohíbe expresamente la creación de videos que utilicen la imagen o la voz de cualquier persona sin su autorización formal. Además, OpenAI reforzará sus procesos de verificación y permitirá que los artistas gestionen directamente sus derechos dentro del sistema.


“Los protocolos de aceptación voluntaria son la única forma legítima de hacer negocios”, subrayó Sean Astin, el nuevo presidente de SAG-AFTRA, quien destacó que el acuerdo representa una victoria simbólica y práctica para los intérpretes frente a la rápida expansión de la IA generativa.


Más allá del conflicto: el debate sobre regulación y ética

El caso también reavivó el debate global sobre la necesidad de una regulación clara para la inteligencia artificial, especialmente en lo que respecta al uso de rostros, voces e identidades digitales. OpenAI manifestó su apoyo a la NO FAKES Act, una ley federal estadounidense que busca prohibir la creación de réplicas digitales no autorizadas de personas vivas o fallecidas.


El tema tomó un matiz más delicado cuando se reveló que Sora 2 había sido utilizada para generar videos con figuras históricas y celebridades fallecidas, como Martin Luther King Jr. y Robin Williams, lo que llevó a la compañía a pausar su uso y establecer salvaguardas adicionales.


Un punto de inflexión para la industria

Este acuerdo marca un antes y un después en la relación entre Hollywood y las empresas de inteligencia artificial. Por primera vez, un gigante tecnológico acepta modificar su modelo de negocio para respetar los derechos de imagen y voz de las personas, sentando un precedente regulatorio y ético para toda la industria.


Con esta resolución, tanto los artistas como las plataformas tecnológicas avanzan hacia un nuevo equilibrio entre innovación y consentimiento, en un momento donde la frontera entre lo real y lo sintético se vuelve cada vez más difusa.

Artículo Anterior Artículo Siguiente