La IA está en el centro del debate tecnológico, ético y social. Por eso es fundamental que periodistas y usuarios de redes sociales no caigamos en abusos de lenguaje, generalizaciones y falacias a la hora de hablar de ello. Con demasiada frecuencia leemos titulares como “una IA supera a los humanos en…” o “la IA ya es más inteligente que las personas…” que van seguidos de imágenes de androides, imágenes hasta ahora procedentes de fondos de imágenes y que ahora ya son generadas con IA.
Si los medios tradicionalmente han creado la realidad y no al revés, hoy somos todos los que contribuimos a su creación o destrucción. Un recordatorio: Twitter, Facebook, YouTube, Instagram y toda la colleta sociales ya hace tiempo que dejaron de ser simples plataformas para ser medios y son, por tanto, también responsables de la creación de realidades.
El día 2 de junio de 2023 nos despertamos con la noticia de que un dron militar del ejército de Estados Unidos, al recibir la orden de destruir un objetivo, lo primero que hizo fue atacar a su operador para evitar recibir una contraorden. Aunque lo llevaba el diario británico The Guardian, y todos los medios del mundo se hicieron eco, tenía todos los ingredientes de ser una fabulación: la máquina que se rebela contra los humanos, drones asesinos y escenario bélico lico. El titular clickbait se hace solo. Recuerdo mi perplejidad y mi conversación con el Dr. López de Mantaras, ambos con el modo tecno-escéptico activado al máximo nivel.
La máquina que se rebela contra los humanos, drones asesinos y escenario bélico. El titular clickbait se hace solo
Horas después la noticia la desmentía el mismo The Guardian diciendo que sí que había pasado pero en una simulación virtual. Pues tampoco. El que había pasado es que el Coronel Tucker Hamilton, un piloto experimentado, había propuesto la situación como un experimento mental en una conferencia a la Real Asociación Aeronáutica británica; ni rebelión de la máquina, ni operador muerto ni siquiera simulación virtual, solo una hipótesis para debatir sobre ética e IA en entornos militares. Premio por la prensa.
Es en este entorno mediático —como diría Xavi— que nos movemos a la hora de entender qué pasa realmente con la IA. Hace falta un debate sobre el debate que va más allá del periodismo, sin escenarios viciados por Terminator ni visiones tecnoptimistes a ultranza. El Dr. López de Màntaras,en su último libro 100 cosas que hay que saber de la IA (Cossetània, 2023) dedica un capítulo a los "Robots con licencia para matar" donde habla del tema. También dedica otro a la prensa que se titula No permitas que la exageración estropee una buena noticia. Es a partir de sus recomendaciones que he hecho este decálogo:
Una propuesta para los medios a la hora de hablar de IA
1. Evitar el antropomorfismo: es crucial no atribuir características humanas a la IA. Esto incluye evitar verbos que se aplican a los humanos como "pensar", "aprender", o "sentir". Esta claridad ayuda a comprender las verdaderas capacidades y limitaciones de la IA. Es difícil hacer abstracción cuando sistemas como el ChatGPT los utilizan constantemente y además en primera persona del singular. Hay que criticarlo.
2. Enfatizar que la iniciativa es de las personas: las personas tenemos iniciativa, los ordenadores no. La IA es una creación humana. Sus algoritmos y funciones están pensados, diseñados y programados por personas. Los ordenadores no hacen nada por sí solos, sólo hacen lo que sus creadores les dicen que hagan. Una frase atribuida a Ted Nelson lo resume: “La buena noticia es que los ordenadores sólo hacen lo que les decimos que hagan. La mala noticia es que los ordenadores sólo hacen lo que les decimos que hagan”.
3. Atribuir logros a las personas, no a las máquinas: cuando se reporta sobre avances o logros en la IA, es importante destacar el trabajo de los investigadores, ingenieros y otros profesionales implicados, en lugar de presentar la tecnología como autónoma o autodirigida. En el caso del aprendizaje máquina también es necesario atribuir parte del éxito a los millones de creadores de los datos de los conjuntos de entrenamiento y a los millones de anotadores que revisan conversaciones y las etiquetan en función de su corrección.
Es en este entorno mediático —como diría Xavi— que nos movemos a la hora de entender qué ocurre realmente con la IA. Es necesario un debate que va más allá del periodismo, sin escenarios viciados por Terminator
4. Distinguir entre IA e inteligencia humana: es necesario hacer una distinción clara entre las capacidades de una máquina y las de un ser humano. A pesar de todos los avances recientes, la IA, no posee conciencia o inteligencia comparable a la humana. Tampoco debemos creer que la evolución actual de la tecnología nos llevará inevitablemente a una IA equiparable a la humana; algunos expertos dicen que estamos muy lejos y otros que es imposible. La adaptabilidad, la plasticidad y la inteligencia social de las redes neuronales biológicas no puede replicarse con redes neuronales digitales. Compararlas no tiene sentido.
5. No confundir la IA particular con la general: el objetivo final de la IA es llegar a dotar a las máquinas de capacidades equiparables a las humanas. Es lo que se conoce como Inteligencia Artificial General (AGI en su acrónimo en inglés). Todo lo que tenemos ahora son IA particulares, muy competentes en dominios muy concretos del conocimiento: calcular, jugar al ajedrez y conducir de forma autónoma en entornos muy controlados. Con demasiada frecuencia un pequeño avance en un ámbito de la IA, en IA particular, se confunde con una aproximación a, o en un avance en, AGI. Desconocemos si la suma de muchos avances en IA particulares puede llegar a la AGI y ni siquiera si éste es el camino.
6. Evitar el largoterminismo: la IA, como cualquier otra tecnología condicionará nuestro futuro. Pero no sabemos cómo. Demasiadas informaciones hablan de futuribles a largo plazo, más propios de Hollywood que de la ciencia, como el fin de la civilización y la extinción de la especie humana. A menudo, estos debates largoterministas sirven para desviar la atención de los retos actuales como son el impacto en el trabajo o los derechos de autor.
Es crucial no atribuir características humanas a la IA. Esto incluye evitar verbos que se aplican a los humanos como "pensar", "aprender", o "sentir"
7. Evitar el sensacionalismo: es necesario presentar la información de forma equilibrada, evitando el sensacionalismo y la desinformación. Los titulares de máquinas que superan en inteligencia a los humanos son golosos, pero no son más que titulares clickbait. Máquinas que nos superen en ámbitos muy particulares hay desde que tenemos telares programables o desde que tenemos calculadoras y no por eso nos superan en inteligencia.
8. Promover la comprensión de la IA: Es importante ofrecer una explicación clara y accesible de qué es la IA, como funciona, y cuáles son sus aplicaciones reales, para ayudar a desmitificar malentendidos y temores infundados.
9. Reconocer las limitaciones de la IA: pese a sus avances, la IA tiene limitaciones inherentes y se encuentra en un estado de desarrollo continuo. El problema de la inducción, uno de los problemas fundamentales de la filosofía, está muy presente en la IA basada en aprendizaje máquina. No porque un hecho haya ocurrido siempre debe seguir ocurriendo. Otra de las grandes limitaciones de la IA es la imposibilidad que tenemos de sistematizar el sentido común y transferirlo a él. Es más difícil de lo que parece y hace buena la paradoja de Moravec que dice “que lo fácil para los ordenadores es difícil para las personas y lo fácil para las personas es difícil para los ordenadores".
De máquinas que nos superen en ámbitos muy particulares hay desde que tenemos telares programables o desde que tenemos calculadoras y no por eso nos superan en inteligencia
10. Incentivar el diálogo constructivo: el debate en torno a la IA siempre provoca más preguntas que respuestas. Y esto es muy bueno. No hace falta tenerlas todas, no hace falta hacer como el ChatGPT y si una respuesta no la tenemos nos la inventamos mientras sea verosímil. Por último, el periodismo debe fomentar un debate sano y constructivo sobre el futuro de la IA, incluyendo discusiones sobre la regulación, la privacidad, el impacto laboral y los beneficios potenciales sin que hagamos pasar nuestros sesgos de confirmación por delante.
Seguramente este decálogo no cubre todo lo que hacemos mal a la hora de hablar de IA (la creatividad humana es infinita a la hora de derramarla). Pero sólo que entre todos hiciéramos el esfuerzo de mantener el debate en el marco de este decálogo nos ahorraríamos muchos malentendidos y podríamos empezar a hacer la carta a los Reyes de como queremos que sea la IA en nuestro futuro.