La inteligencia artificial es un cambio en el que estamos todos inmersos, tanto la sociedad como las empresas. ChatGPT, que ha servido para popularizar esta tecnología, ha propiciado un amplio debate sobre sus usos, sus límites y su necesaria regulación.
De hecho, este año, en el que 4.000 millones de personas acudirán a las urnas, la IA generativa tendrá un papel fundamental: será utilizada por todos los actores para influir en las campañas electorales. Sabemos que los votantes acceden cada vez más a la información por las redes sociales, y éstas pueden ser vulnerables y manipulables por la IA. Por lo tanto, la tecnología IA está a punto de convertirse en un riesgo principal para dar forma a las decisiones políticas, cada vez más utilizadas para influenciar en la opinión pública, desacreditar pruebas reales e acentuar todavía más las tensiones geopolíticas en todo el mundo.
Hasta ahora, la IA ha estado dominada por Estados Unidos y China, pero este año, han aparecido nuevos actores geopolíticos capaces de desarrollar y adquirir capacidades de inteligencia artificial avanzadas, modelos apoyados por los estados, y aplicaciones avanzadas para el uso de la seguridad nacional. Es comprensible que despierte tanto interés como para desatar las luchas enconadas, pero está en juego su dimensión ética y legal en la medida en que replantea la relación persona-máquina que se ha vivido en los últimos años. No todos los usos son buenos, y los ciberdelincuentes aprovechan las capacidades para cometer estafas y engaños.
A finales de año la compañía OpenAI generó uno de los seriales más intensos del sector tecnológico, manifestando que estaba desarrollando una IA que podía ser una amenaza para la sociedad. A medida que los posibles riesgos negativos de la IA son más evidentes, aumentan las preocupaciones y la desconfianza pública hacia las empresas que desarrollan la IA.
"La UE quizás no es una potencia militar, ni política, pero sí que es una potencia reguladora"
El rol regulador de la Unión Europea
De hecho, muchos expertos han alertado de sus peligros y han animado a su regulación. Y Europa se ha convertido en la primera región del mundo donde se ha regulado esta tecnología. La UE quizás no es una potencia militar, ni política, pero sí que es una potencia reguladora. Y también utilizará esta tecnología para su bien: en esta ley, los estados miembros han incorporado el uso y el tratamiento de la IA para casos de seguridad nacional, como por ejemplo, investigación de víctimas de secuestros, tráfico de seres humanos, para prevenir ataques terroristas o para identificar personas sospechosas de haber cometido delitos de terrorismo, asesinados, violaciones o tráfico sexual.
Se tiene que valorar que la ley mantiene un equilibrio entre la protección de los derechos fundamentales y no ser obstáculo para el progreso de una tecnología, de la cual las mismas instituciones europeas saben que Europa no puede quedar al margen. Esta ha sido una de las quejas de EE.UU., que cree que el exceso regulador de la UE complica que las empresas tecnológicas, la mayoría norteamericanas, puedan desarrollar la actividad con normalidad dentro del marco de la UE.
La Eurocámara pidió incluir en la ley una regulación de la inteligencia artificial generativa para que cumpla unos requisitos de transparencia, como por ejemplo que los sistemas respeten los derechos de autor o que se especifique si un contenido ha sido generado por IA. En este sentido, la Unión tiene previsto crear una oficina europea de inteligencia artificial que coordine los países, asesorada por científicos y agentes de la sociedad civil.
El punto más caliente de la negociación ha sido el uso que las fuerzas del orden público puedan hacer de las cámaras de identificación biométrica en espacios públicos
El punto más caliente de la negociación ha sido el uso que las fuerzas del orden público puedan hacer de las cámaras de identificación biométrica en espacios públicos. De hecho, los activistas de los derechos digitales de la UE han denunciado que el uso de esta tecnología podría violar los derechos humanos y ser abusiva, recortando ciertas libertades en nombre de la seguridad.
Más actores en el tablero geopolítico
En los últimos meses, la IA ha sido uno de los grandes temas de debate en foros internacionales. Y no es de extrañar: el uso de la IA puede tener un papel fundamental en los diferentes conflictos bélicos que hay en el mundo, tanto en el intento ruso de recuperar las fronteras de la Unión Soviética, en el peligro que el conflicto en Gaza se convierta en un conflicto de dimensiones globales, o incluso en la posibilidad que Donald Trump vuelva a ser presidente de Estados Unidos.
Por este motivo, el primer ministro británico, Rishi Sunak, convocó a políticos de una treintena de países, científicos y empresarios del sector de la alta tecnología, como el multimillonario Elon Musk, para debatir los pros y los contras del uso de la IA, y sobre todo los peligros, con el propósito de intentar establecer las bases de una jurisdicción y un marco regulador. La cumbre, más allá de exponer y debatir la necesidad de tomar medidas para que la IA no se use para manipular procesos electorales, desinformar y crear realidades paralelas mediante vídeos y audios, sirvió para confirmar las grandes diferencias entre Estados Unidos, China y la Unión Europea. Y aprovechando esta falta de entendimiento, el Reino Unido quiere adquirir un nuevo rol en este tablero geopolítico: Sunak quiere que el Reino Unido haga de intermediario para establecer unas reglas del juego universalmente aceptadas antes de que empresas como Google u OpenAI pongan en marcha la nueva generación de IA.
Hoy por hoy, pero, ningún país ha aprobado todavía una regulación integral de la IA o de la IA generativa. De hecho, los enfoques adoptados por los diferentes países son muy variados, acogiéndose algunos a regulaciones existentes de, por ejemplo, protección de datos o ciberseguridad, y hasta leyes sectoriales; otros están optando por principios más generales o enfoques basados en directrices. Cada enfoque tiene sus beneficios e inconvenientes, e iremos viendo cómo algunos mercados pasarán de directrices basadas en principios a una legislación estricta.
"La gobernanza de la IA sale de las fronteras de los países en los que se desarrolla"
Veremos, también, que los adelantos en la gobernanza de la IA se harán más evidentes este año, a medida que los esfuerzos reguladores vayan fallando y las empresas tecnológicas más potentes vayan más allá del control de los gobiernos.
La gobernanza de la IA sale de las fronteras de los países en los que se desarrolla y, por eso, después del verano está previsto que la ONU organice la Cumbre del Futuro, para decidir si los estados miembros apoyan o no la creación de una agencia de IA de la ONU. La propuesta de Naciones Unidas es crear una agencia internacional similar a la Agencia Internacional de Energía Atómica (OIEA) que desarrolle los estándares para toda la industria y permita monitorar si se están cumpliendo, de forma segura, los requisitos de los sistemas de inteligencia artificial más sofisticados. En definitiva, ser una autoridad internacional que pueda inspeccionar, auditar y probar el cumplimiento de las normas de seguridad y, incluso, imponer restricciones. Ahora bien, desgraciadamente, algunos expertos se han mostrado pesimistas y han manifestado que será muy difícil el apoyo entre los responsables gubernamentales para poder llegar a crear una agencia similar a la OIEA para la IA.
La gobernanza en la inteligencia artificial es geopolítica y, por lo tanto, es poder.