El rápido adelanto de la inteligencia artificial (IA) ha provocado cambios significativos en la manera en la que consumimos e interactuamos con la información. ¿Podríais decir si este texto lo he escrito yo o ha sido generado con ChatGPT?* Aun así, este progreso plantea preguntas importantes sobre las implicaciones éticas sobre el uso del IA, de la utilización de materiales con derechos de autor, de su impacto en el sector periodístico y de su impacto social.
A medida que la IA forma parte cada vez más de los procesos de selección, recomendación y de generación de contenidos, es necesario que la ética periodística, que hasta ahora solo era aplicable a periodistas y editores humanos, se extienda también a la IA, o lo que es el mismo, a las empresas que las desarrollan.
Hasta ahora, empresas como OpenAI, con Microsoft detrás, o bien Google han actuado en zonas grises al respecto a los derechos de autor. Escudándose en el argumento "del uso razonable" han podido utilizar el contenido que entre todos hemos generado —el libre de derechos y el que tiene propiedad intelectual— para crear un negocio multimillonario análogo. Este escenario recuerda poderosamente la era de Napster, donde la tecnología y los usuarios cambiaron los modelos de distribución de contenido musical. hubo damnificados, pero sin el Napster de antaño no tendríamos los servicios de streaming de hoy. Del mismo modo que la industria de la música finalmente se adaptó y la llegada de las plataformas redujo la piratería en un deporte, la época Napster de la IA generativa también pasará. Y para que esto sea así tienen que pasar dos cosas: que los propietarios de contenidos se adapten al nuevo paradigma de creación/distribución y que, sobre todo, los creadores de grandes modelos de lenguaje respeten los derechos de los primeros. Parece que estamos viendo los primeros pasos.
"El contenido del New York Times utilizado en el entrenamiento sirve después para competir contra el mismo medio"
OpenAI, entre otras empresas de IA, ha firmado acuerdos con los principales editores de noticias para utilizar su contenido para entrenar modelos de IA, pagando. Lo ha hecho con editores como Axel Springer, The Financial Times, Le Monde, Prisa Media y The Associated Press. Estos acuerdos permiten que las herramientas de IA utilicen material con derechos de autor de manera legal. No todo el mundo está de acuerdo. El New York Times demandó en diciembre del 2023 OpenAI y Microsoft por infracción de derechos de autor. El argumento no es tanto por si pagan o no por el entrenamiento como por el hecho que el contenido del NYT utilizado en el entrenamiento sirve después para competir contra el medio: sus ingenieros fueron capaces de reproducir con ChatGPT artículos enteros del diario.
El otro gran competidor, Google con su Gemini, trabaja en otra dirección. De momento, que sepamos, no ha cerrado ningún acuerdo con los grandes grupos editoriales. A pesar de todo, sus aportaciones a la ética periodística podrían ser fundamentales. Uno de los problemas de los grandes modelos de lenguaje es que "alucinan", que es el término técnico que se utiliza para decir que se inventan cosas. Las "alucinaciones" están muy bien cuando el objetivo que se persigue es "creativo"; sin alucinaciones la IA generativa sería predictiva y todo lo que haría seria "regurgitar" (sí, este también es el término técnico) todo lo que ha aprendido textualmente. Hace falta pues una cierta imprevisibilidad a la hora de generar contenidos si queremos que estos modelos nos sean útiles. Sin esta imprevisibilidad no estaríamos donde estamos. Sin embargo, esta característica de la IA generativa es un problema cuando lo que nos interesa son contenidos factuales, verdaderos y de calidad.
Un artículo reciente de los investigadores de Google DeepMind ha propuesto una nueva metodología llamada Safe que intenta minimizar las "alucinaciones". Safe es evaluador de hechos aumentado con los algoritmos de búsqueda de Google, que de esto entiende un poco. Las respuestas generadas por el modelo se desglosan en oraciones simples que se contrastan con la búsqueda de Google para ver la realidad o la falsedad. El documento afirma que este sistema experimental supera los anotadores humanos de verificación de hechos en términos de precisión y es más de 20 veces más barato. Parece que los puestos de trabajo de anotador a 1 y 2 dólares la hora que la IA generativa creó en Nepal, Bangladesh y Nigeria también tienen los días contados.
"Parece que los puestos de trabajo de anotador a 1 y 2 dólares la hora que la IA generativa creó en Nepal, Bangladesh y Nigeria también tienen los días contados"
Os dejo con cinco puntos de ética periodística para máquinas como resumen de todo:
- Respetar los materiales con derechos de autor: las empresas de IA tienen que respetar los derechos de propiedad intelectual de los creadores y obtener permiso antes de utilizar materiales con derechos de autor. Esto incluye pagar derechos de autor a editores y creadores por el uso de su obra.
- Dar crédito a las fuentes: las empresas de IA tienen que dar crédito a las fuentes y a los creadores por la información que proporcionan. Esto incluye citar fuentes y proporcionar enlaces en el contenido original.
- Compensar a los creadores: las empresas de IA tienen que compensar los creadores por el uso del resultado de su trabajo. Esto incluye pagar derechos de autor y ofrecer una compensación justa por el uso de materiales con derechos de autor.
- Garantizar la veracidad y la factualidad: las empresas de IA tienen que garantizar la veracidad y la factualitat de la salida. Esto incluye el uso de métodos de verificación de hechos para garantizar que la información proporcionada es precisa y fiable.
- Transparencia en la creación de modelos: las empresas de IA tienen que ser transparentes en la creación de sus modelos. Esto incluye proporcionar información sobre los datos utilizados para entrenar los modelos y los algoritmos utilizados para generar la salida.
Cinco puntos que casualmente no son nada diferentes que los que tenemos que exigir también a los periodistas. Pero este tema parece que costará más.
*Sí, ha sido generado por ChatGPT.