IA: regulación vs innovación. ¿Dilema? ¿Qué dilema?
¿Queremos el sistema de puntuación social de China y que un día nos encontremos desposeídos de nuestros derechos digitales y de los no-digitales?
Hay quienes califican la inteligencia artificial (IA) como Tecnología de Propósito General al nivel de la electricidad y el fuego. Diferentes reguladores de todo el mundo —del ámbito local al supranacional— se están debatiendo para equilibrar los beneficios potenciales de la IA con la necesidad de regular su desarrollo para garantizar su seguridad, equidad y estándares éticos. Este análisis, aprovechando que la Ley de IA de la Unión Europea entra en vigor el 2 de agosto, pretende profundizar en el impacto de las regulaciones alrededor de la IA mediante la comparación de los modelos reguladores y los niveles de inversión en IA en la Unión Europea, Estados Unidos y China; más allá de percepciones, memes, miedos y narrativas simplistas.
Inspirado en la maestría del Dr. Hans Rosling (Factfulness), quien demostró que las estimaciones sobre la realidad de los monos del Zoo de Estocolmo son más fiables que las de los expertos asistentes a Davos, Rosling defendió la idea de que las percepciones a menudo se ven condicionadas por sesgos cognitivos e información incompleta, dando lugar a decisiones que no reflejan el estado real del mundo. En el contexto de la regulación de la IA, esto significa evitar visiones tecno-alarmistas que puedan exagerar los riesgos o las tecno-solucionistas que exageren los beneficios de determinadas tecnologías.
La ley de IA de la UE La Ley de IA de la Unión Europea, propuesta en abril de 2021, es un marco regulador completo que tiene como objetivo garantizar el desarrollo, el despliegue y el uso seguro y ético de tecnologías de IA en la UE. La Ley representa un paso importante hacia el establecimiento de un enfoque estructurado de la gobernanza de la IA que pretende armonizar la innovación con los derechos fundamentales y las consideraciones de seguridad.
La Ley de IA de la UE representa un enfoque pionero en la regulación de la IA
Entre los objetivos de la ley está el de asegurar que los sistemas de IA no representen riesgos inaceptables para la salud, la seguridad y los derechos fundamentales de las personas y la sociedad; mejorar la transparencia de las operaciones de IA y establecer mecanismos claros de responsabilidad para desarrolladores y usuarios; y el de crear un marco regulador unificado que promueva un mercado único para las tecnologías de IA en la UE, reduciendo la fragmentación y facilitando el comercio transfronterizo. Otro de los objetivos es construir la confianza pública en las tecnologías de IA demostrando un compromiso con los principios éticos y una supervisión reguladora robusta. Finalmente, la ley también quiere proporcionar un entorno claro que apoye y fomente la innovación en las tecnologías de IA dentro de la UE.
Esto conlleva obligaciones para los desarrolladores como la realización de evaluaciones de conformidad. Los sistemas de IA de alto riesgo deben someterse a pruebas y procesos de validación rigurosos para garantizar que cumplen con los estándares de seguridad y rendimiento establecidos. Una vez desplegados, estos sistemas requieren un seguimiento continuo para asegurar que se mantiene el cumplimiento de las normativas y para detectar cualquier riesgo emergente. Además, los desarrolladores están obligados a mantener registros detallados y documentación de los datos utilizados en los sistemas de IA, asegurando así la trazabilidad y la responsabilidad en el uso de la tecnología.
Para los reguladores supondrá la designación de autoridades competentes nacionales en cada estado miembro de la UE para supervisar la implantación y el cumplimiento de la ley de IA. Además, se crea la Oficina Europea de IA, un nuevo organismo encargado de facilitar la cooperación entre las autoridades nacionales y proporcionar orientación sobre la aplicación de la ley de IA. También se establecerán sanciones significativas para las empresas que incumplan las regulaciones, con multas que pueden ir desde los 35 millones de euros al 7% de su volumen de negocios anual global.
¿Qué pasa con gigantes como los EEUU donde hay poco respeto por el dato privado o en China donde hay poco respeto por el individuo en general?
Estamos de acuerdo en que la Ley de IA de la UE representa un enfoque pionero en la regulación de la IA, y que, tal como lo hizo la GDPR, servirá de patrón para los gobiernos a la hora de abordar los retos y las oportunidades que presenta la IA. Seguro que nos hará mejores personas, ¿pero más prósperos? ¿Qué pasa con gigantes como los EEUU donde hay poco respeto por el dato privado o en China donde hay poco respeto por el individuo en general? ¿Nos estamos disparando un tiro en el pie o, por el contrario, necesitamos este tipo de regulaciones si no queremos acabar en 1984? El Departamento del Interior de los EEUU utiliza reconocimiento facial que cruza con datos de gimnasios, tarjetas de compra de supermercados y actividad en línea para reconocer personas y deportarlas en masa. ¿Queremos el sistema de puntuación social de China y que un día nos encontremos desposeídos de nuestros derechos digitales y de los no digitales?
Los riesgos
La ley clasifica los riesgos de aplicación de la IA en varias categorías. Los sistemas de IA que representan un riesgo inaceptable, es decir, que ponen en peligro la seguridad, los medios de subsistencia y los derechos de las personas, están prohibidos. Esto incluye, por ejemplo, los sistemas de IA utilizados para la puntuación social por parte de los gobiernos y aquellos que manipulan el comportamiento humano para causar daños. Los sistemas de IA de alto riesgo, que se utilizan en sectores críticos como la salud, el transporte, la aplicación de la ley y el empleo, están sujetos a requisitos estrictos antes de poder ser comercializados o utilizados. Los sistemas de IA con riesgo limitado, como los chatbots o los sistemas de categorización biométrica, tienen obligaciones específicas de transparencia. Los usuarios deben ser informados de que están interactuando con un sistema de IA. Finalmente, todos los demás sistemas de IA que representan un riesgo mínimo o nulo están mayoritariamente desregulados por la ley.
1. Potencial freno a la innovación
Aunque la Ley de IA de la UE tiene como objetivo proteger los intereses públicos y garantizar un desarrollo ético de la IA, el efecto podría ser el contrario. El equilibrio es muy inestable y existe la preocupación de que sus estrictos requisitos reglamentarios puedan obstaculizar la innovación.
Existe la preocupación de que sus estrictos requisitos reglamentarios puedan obstaculizar la innovación.
2. Más costos de conformidad
Los estrictos requisitos de conformidad, especialmente para los sistemas de IA de alto riesgo, conllevan costos significativos. Las empresas deben invertir en pruebas extensas, procesos de validación y documentación para cumplir con las evaluaciones de conformidad, que es precisamente lo que OpenAI, Google y Meta no hacen. Estos costos pueden ser prohibitivos para las pymes y muy especialmente para las empresas emergentes.
Las empresas pueden tener que asignar recursos sustanciales al cumplimiento, en lugar de innovar. Este cambio de enfoque puede limitar su capacidad para invertir en investigación y desarrollo.
3. Alentamiento de los ciclos de innovación
Las evaluaciones de conformidad detalladas y las certificaciones necesarias pueden alargar significativamente el tiempo necesario para llevar los productos al mercado. Este retraso puede ser una desventaja crítica en la industria de IA, donde ser el segundo es el primero de los perdedores.
Este retraso puede ser una desventaja crítica en la industria de IA, donde ser el segundo es el primero de los perdedores
El establecimiento de autoridades competentes nacionales y en la UE introducirá capas adicionales de burocracia que ralentizarán los procesos de toma de decisiones y aprobación: más tiempo que no se dedica a la I+D+i.
4. Tap generacional
Las empresas emergentes son a menudo la fuerza impulsora detrás de los desarrollos de IA más innovadores. Los procedimientos complejos asociados con el cumplimiento pueden actuar como barreras de entrada, desalentando nuevas empresas y limitando la diversidad de innovación en el ecosistema de IA.
La posibilidad de multas significativas por incumplimiento, puede desincentivar la asunción de riesgo por parte de las emergentes. Un enfoque demasiado conservador podría sofocar la experimentación y la innovación, conduciendo a un entorno de desarrollo de IA demasiado cauteloso y poco dinámico.
5. El dinero es cobarde
Los capitalistas de riesgo y otros inversores podrían ser reacios a invertir en emergentes de IA dentro de la UE debido a los riesgos regulatorios percibidos y los posibles retrasos en conseguir rendimientos de la inversión. Tenemos la prueba en los recientes casos de las plataformas norteamericanas de generación de música Udio y Suno, que la RIAA ha llevado a los tribunales por violación de derechos de copia: sus inversores afirman que si todo hubiera sido legal desde el principio, no habrían invertido.
6. Desventaja competitiva
En un mercado globalizado, las empresas de la UE pueden encontrarse en desventaja en comparación con sus homólogas en los EEUU donde los entornos regulatorios son generalmente más permisivos, y en China donde no se sabe cuándo acaba el regulador y empieza la empresa. La capacidad de las empresas de estas regiones para innovar rápidamente y llevar productos al mercado puede erosionar la posición competitiva de las empresas basadas en la UE.
7. Fuga de cerebros
Los investigadores y profesionales más capacitados en el ámbito de la IA podrían sentirse tentados a trasladarse a países con entornos regulatorios menos restrictivos, más competitivos y por tanto con salarios más suculentos. Una fuga de talento que en la UE no nos podemos permitir. Esta pérdida de capital humano puede debilitar la capacidad global de la UE para la innovación y no solo en el ámbito de la IA.
Dinero
Si damos una vuelta por los otros grandes ecosistemas de IA y comparamos con la UE nos daremos cuenta de que la inversión y la innovación en IA varían significativamente según la región.
La inversión en IA ha visto un crecimiento exponencial durante la última década. Según IDC, se prevé que el gasto global en sistemas de IA supere los 184 mil millones de dólares en 2024, reflejando una tasa de crecimiento anual del 50% respecto al año anterior. La inversión en IA proviene de diversas fuentes, incluyendo financiamiento gubernamental, capital riesgo privado, inversiones corporativas y mercados públicos. La interacción de estas fuentes de financiamiento varía según las regiones.
Se prevé que el gasto global en sistemas de IA supere los 184 mil millones de dólares en 2024
1. UE
La UE destina recursos sustanciales a la IA a través de iniciativas estratégicas como el programa Horizon Europe, que asigna en 2023-24 112 mil millones de euros a la investigación y la innovación en IA y computación cuántica. La UE está invirtiendo desde 2021 y hasta 2027 mil millones de euros anuales. La UE pone énfasis en la creación de un ecosistema colaborativo para el desarrollo de la IA, aprovechando los puntos fuertes de sus estados miembros. Iniciativas como la Alianza Europea de IA y el Consejo Europeo de Innovación proporcionan plataformas para la cooperación entre academia, industria y gobierno. Tanto los sectores públicos como los privados están invirtiendo en IA. No obstante, los niveles de inversión generalmente son inferiores a los de los EEUU y China y las emergentes europeas a menudo se enfrentan a desafíos para escalar debido a mercados fragmentados y complejidades regulatorias.
2. EEUU
Los EEUU lideran la inversión en IA, especialmente a través del capital riesgo. Silicon Valley y gigantes tecnológicos como Google, Apple y Facebook, atraen una parte significativa del financiamiento global de IA. En lo que va de 2024, las emergentes de IA en los EEUU han concentrado más de 100 millones de dólares en financiamiento de capital riesgo. El gobierno de los EEUU también juega un papel crucial, con inversiones sustanciales de agencias como DARPA y la NSF. De agosto de 2022 a agosto de 2023, los EUA incrementaron el gasto público en un 1200%, de 35 millones de dólares a 4,6 mil millones. Empresas globales como IBM, Microsoft y Amazon están a la vanguardia del desarrollo de tecnologías de IA que tienen integradas en sus modelos de negocio.
Los EEUU lideran la inversión en IA, especialmente a través del capital riesgo
3. China
En China, la estrategia de IA se caracteriza por una fuerte inversión liderada por el estado. El gobierno chino ha fijado objetivos ambiciosos, con el objetivo de convertirse en el líder mundial en IA para 2030. El financiamiento gubernamental apoya a centros nacionales de investigación en IA y a proyectos de gran escala. Según IDC la proyección de la inversión de China en IA llegará a los 38 mil millones de dólares en 2027, un 9% de la inversión total. Los gigantes tecnológicos chinos como Alibaba, Tencent y Baidu son grandes inversores en IA. Estas empresas no solo financian I+D interna, sino que también invierten en emergentes de IA y adquieren empresas emergentes de IA extranjeras para reforzar sus capacidades. China fomenta las asociaciones público-privadas para acelerar el desarrollo de la IA. Iniciativas como el Plan de Desarrollo de Inteligencia Artificial de Nueva Generación alientan la colaboración entre entidades gubernamentales, instituciones de investigación y el sector privado. Sin esta colaboración público-privada no se entendería cómo TikTok, de matriz china, ha conquistado el mundo. Recordemos que TikTok es únicamente y exclusivamente un algoritmo muy bien engrasado de recomendación basado en IA y aprendizaje automático.
Según fuentes del Parlamento Europeo, el mercado global de IA, que estaba valorado en 2024 en más de 130 mil millones de euros, se espera que crezca a casi 1,9 billones de euros en 2030. La inversión privada representa la mayor parte de la inversión en IA, que lideran los EE.UU. con 62.500 millones de euros, seguidos de China con 7.300 millones de euros. La UE y el Reino Unido atrajeron conjuntamente 9.000 millones de euros de inversión privada en 2023.
Antítesis
De acuerdo, regular la IA tiene costos. Pero, ¿y los costos de no hacerlo? EE.UU. y China lideran, pero ¿a cambio de qué? Mientras que EE.UU. y China lideran el desarrollo de la IA, estos avances a menudo se producen a cambio de compromisos significativos en ética, derechos humanos y seguridad.
"De acuerdo, regular la IA tiene costos. Pero, ¿y los costos de no hacerlo?"
Privacidad y derechos humanos Uno de los costos más evidentes de no regular la IA es la violación de la privacidad y los derechos humanos. En un entorno sin regulaciones, las empresas pueden recoger, almacenar y utilizar datos personales sin el consentimiento informado de los individuos. Ahora que vuelve a haber elecciones en EE.UU., no podemos abstraernos del caso de Cambridge Analytica, donde datos personales de millones de usuarios de Facebook fueron utilizados sin su consentimiento para influir en sus elecciones políticas. Este escándalo puso de manifiesto la necesidad de regulaciones estrictas para proteger la privacidad de los usuarios.
En China, la falta de regulaciones estrictas ha permitido el desarrollo y uso extensivo de tecnologías de reconocimiento facial para la vigilancia masiva. Esta tecnología se ha utilizado para monitorear y controlar minorías étnicas, como los uigures en Xinjiang, violando sus derechos humanos fundamentales. Este uso indiscriminado de la IA para la vigilancia es un claro ejemplo de cómo la falta de regulación puede conducir a abusos significativos de los derechos humanos.
Discriminación y sesgos
Otro costo importante de no regular la IA es la perpetuación y amplificación de sesgos y discriminaciones existentes. Los algoritmos de IA a menudo aprenden a partir de datos históricos, que pueden contener los sesgos implícitos de las sociedades que los han generado. Sin una regulación adecuada, estos sistemas pueden tomar decisiones discriminatorias en áreas críticas como el empleo, la justicia penal y los préstamos financieros.
Un costo de no regular la IA es la perpetuación y amplificación de sesgos y discriminaciones existentes
Un ejemplo claro es el algoritmo COMPAS, utilizado en EE.UU. para evaluar el riesgo de reincidencia de los acusados. Estudios han demostrado que este algoritmo tenía un sesgo racial significativo, ya que a menudo predecía incorrectamente que los acusados negros eran más propensos a reincidir en comparación con los acusados blancos. Este tipo de discriminación automatizada conduce a todo menos a una sociedad más justa, especialmente para los más débiles.
Seguridad y fiabilidad
La seguridad es otro ámbito crítico que se ve comprometido en ausencia de regulaciones. Los sistemas de IA pueden ser vulnerables a ataques cibernéticos, manipulaciones y fallos operacionales. Sin estándares de seguridad rigurosos, estos riesgos pueden tener consecuencias devastadoras.
Por ejemplo, en el caso de los vehículos autónomos, un fallo en los sistemas de IA podría provocar accidentes mortales. En Uber, en 2018, un vehículo autónomo atropelló y mató a una peatona en Arizona, poniendo de relieve la necesidad de regulaciones estrictas para garantizar la seguridad de estos sistemas antes de que puedan ser utilizados ampliamente.
Pérdida de confianza pública
La falta de regulación también puede conducir a una pérdida de confianza pública en la tecnología de IA. Cuando los ciudadanos perciben que sus datos no están seguros o que los sistemas de IA pueden actuar de manera injusta, insegura e inexplicable, se reduce su predisposición a utilizar estas tecnologías. Esta pérdida de confianza puede frenar la adopción y el desarrollo de la IA a largo plazo y erosionar, aún más, la confianza en las administraciones que las implanten.
Final
Aunque la regulación de la IA puede conllevar costos y desafíos para las empresas, no regular esta tecnología puede tener consecuencias aún más graves. La protección de la privacidad y los derechos humanos, la prevención de la discriminación, la garantía de la seguridad y la fiabilidad, y la preservación de la confianza pública son esenciales para el desarrollo ético y sostenible de la IA. Los ejemplos y casos de estudio de EE.UU. y China demuestran claramente los riesgos de no regular adecuadamente esta tecnología. Por otro lado, una regulación que falle en el enfoque puede provocar el efecto contrario: desincentivar la innovación y aumentar la dependencia de actores que la única ley que entienden es la de la oferta y la demanda.
Quién sabe si la IA nos puede ayudar también a encontrar el equilibrio.