Dice la leyenda judía que un rabino de Praga creó un ser de barro, el Gólem, para proteger a la comunidad. Lo dotó de fuerza, obediencia y una misión clara. Pero se olvidó de una cosa: ponerle límites. Y el Gólem, como todo algoritmo mal diseñado, acabó convirtiéndose en una amenaza.
Hoy en día este Gólem trabaja en los estudios de postproducción de una gran productora audiovisual. No duerme, no cobra, y puede doblar una película a 27 idiomas en tres minutos. Añade lluvia a una escena rodada durante la sequía, crea figurantes digitales sin que nadie se dé cuenta, o simula los movimientos y la voz de un actor que ya no puede grabar más diálogos. Todo muy impresionante, hasta que descubres que el Gólem ha aprendido a copiar cosas de otros actores sin permiso. Y ha decidido que, por casualidad, todos tienen unos rasgos un poco asiáticos o caucásicos, según de dónde sea su amo.
Las herramientas de IA generativa han irrumpido en el sector audiovisual como un ejército de Gólems eficientes. No hay pocos, son una legión: OpenAI, Gemini, Adobe, Runway, Luma, ElevenLabs, y un largo etcétera. Y sí, las posibilidades creativas son infinitas. Si antes rodabas una localización en una mañana, ahora tienes todas las localizaciones inimaginables a golpe de clic y con bastantes ventajas: reducción de costes, escenas imposibles, adaptaciones automáticas para diferentes mercados, accesibilidad mejorada con subtítulos y doblajes en tiempo real… Tu creatividad es el límite. ¿Pero todo vale?
Pues… depende. Es una caja negra y tenemos que poder abrirla y remover.
"Las herramientas de IA generativa han irrumpido en el sector audiovisual como un ejército de Gólems eficientes"
El primer punto de la caja es el origen de los datos. Si entrenamos modelos con materiales protegidos con derechos de autor, o sin el consentimiento explícito de las personas que aparecen, estamos creando una bomba ética, independientemente de su legalidad. Y esto no es ciencia ficción: las demandas de guionistas, actores, y creadores de contenido han crecido exponencialmente. Quieren garantizar que no se les borre de la cadena de valor, y que son imprescindibles para el funcionamiento del sector cultural. Para algunos profesionales, este es el último clavo de un ataúd que hacía mucho tiempo que los perseguía.
Un actor de doblaje que había clonado su voz y la vendía a través de una plataforma para usarse, confesaba que cobraba más de lo que recibía de royalties de ElevenLabs, que haciendo trabajo de actor de doblaje de carne y hueso en un estudio. Claro, el trabajo se le ha multiplicado, y ahora ya no solo habla su lengua, sino que lo hace en todas las del mundo de manera simultánea.
H&M ha clonado a 30 de sus modelos para producir el material que necesita. Ellas cobran, pero trabajan incansablemente. No envejecen, no engordan, no se cansan, no se quejan.
El segundo punto de la caja negra es la seguridad. Cuando subimos vídeos a plataformas para hacer tratamientos con IA, estamos entregando materiales a menudo confidenciales (campañas no publicadas, preestrenos, pilotos…). Hay que revisar los términos de uso y exigir entornos de procesamiento privados, y seguros. Que no todo acabe, vete tú a saber, entrenando el Gólem de la competencia.
"Cuando subimos vídeos a plataformas para hacer tratamientos con IA, estamos entregando materiales a menudo confidenciales"
Mirad qué ha pasado con Hayao Miyazaki del estudio Ghibli, que él no dio ningún material para entrenar, pero que, casualmente, ChatGPT sabe imitarle el estilo (pero no el alma, cabe decir).
¿Ya sabéis dónde van todas las cosas que colgáis en estas herramientas? Adobe anunció hace unos meses que todo aquello que hicierais con sus herramientas podía ser utilizado para entrenar sus algoritmos. El revuelo fue tal que la empresa tuvo que salir al paso y asegurar que nunca había usado contenido de los usuarios para entrenar IA generativa, y que los nuevos términos de servicio lo dejaban claro. Pero si el problema se tiene que desmentir es que, como mínimo, la sospecha era razonable. Y esto ya es bastante grave. ¿La ironía? Tú pagas la suscripción, ellos se comen tus miedos creativos y aún tienes que dar las gracias. En mi casa esto tiene un nombre…
Y finalmente, el tercer punto de la caja, y uno de los más difíciles de ver: los sesgos. Si tu modelo ha aprendido a hacer castings basándose en el cine norteamericano de los años 90, es probable que el resultado sea una repetición inconsciente de los mismos estereotipos. La IA no es creativa: solo replica patrones. Un loro que grita “¡visca el Barça!” para que lo alimentes de pipas.
"Si tu modelo ha aprendido a hacer castings basándose en el cine norteamericano de los años 90, es probable que el resultado sea una repetición inconsciente de los mismos estereotipos"
Un ejemplo claro de estos sesgos se evidenció en un estudio de la Queen Mary University, que reveló que los modelos de IA entrenados con datos de la industria cinematográfica mostraban sesgos de género significativos entre actores y actrices. Esto subraya cómo la IA puede perpetuar las desigualdades existentes si se entrena con datos históricamente sesgados. ¿Y no lo son casi todos, de sesgados?
¿Qué podemos hacer, pues? Producir con sensatez. Aplicar la ética profesional de siempre al nuevo contexto tecnológico. Documentar procesos, auditar modelos, exigir transparencia a proveedores tecnológicos, compañeros, herramientas, procesos, y formar equipos humanos que entiendan tanto el lenguaje audiovisual como el computacional. Porque si dejamos que la IA decida quién sale a cámara, qué se dice, y cómo se dice, no nos harán falta profesionales creativos con miradas entrenadas para la comunicación. Solo necesitaremos un buen almacén de datos en la nube, una estética de stock cutre y un público que no pregunte demasiado. Y esto no es futuro distópico, es un PowerPoint hecho por alguien que no ha tocado una cámara en su vida.