Acaba de salir la última edición deL AI Index Report. Elaborado por el Instituto de la IA Centrada en las Personas de la Universidad de Harvard, el informe ya hace siete años que analiza, visualiza y detecta tendencias y destila todo lo que ha sucedido en el año anterior en el ámbito de la IA. Tiene la gracia que es apto para todos los públicos: desde un resumen ejecutivo para que los periodistas puedan hacer copia y pega, con gráficos de tendencias, hasta análisis muy detallados, con acceso a los datos de los estudios para investigadores.
Algunas de las conclusiones confirman las tendencias de ediciones precedentes y otros son más interesantes por lo que tienen de inesperadas. La primera obviedad es el aumento de la inversión privada en IA que ha multiplicado por 8 la de 2022. Entre los premiados hay sospechosos habituales como OpenAI, Anthropic, Hugging Face e Inflection, todas empresas norteamericanas.
Es precisamente EE.UU. quien con 61 modelos en el 2023 lidera la creación, seguidos de Europa con 21 y China con 15. También es quien invierten más en la creación de modelos avanzados, denominados modelos de frontera, aquellos que por escala, complejidad y capacidad están al alcance solo de las grandes tecnológicas. También es el que levanta más dudas éticas y de impacto social: pensad en los datos de entrenamiento del GPT-4 (o 4 Turbo) de OpenAI y del Gemini de Google. En este ámbito el estudio destaca cómo la creación de estos modelos es cada vez más inabarcable para el común de los mortales: si el entrenamiento del GPT-4 costó casi 78 millones de dólares, ¡el entrenamiento del Gemine Ultra de Google costó 191!
"La visión que tenemos de la IA generativa —hacer trampa en los trabajos del instituto y generar imágenes porno— está muy alejada de la realidad: las empresas la utilizan en sus procesos"
Todo esto nos lo podíamos imaginar, pero hay un segundo grupo de conclusiones que quizás no son tan obvias y que, sobre todo, no las vemos mucho porque no generan clics. La primera, y que más nos tendría que interesar como país de empresas que somos (¿fuimos? ¿queremos ser?) es que en el 2023 la industria creó un total de 51 modelos, lejos de los 15 de la academia. De la colaboración entre academia e industria salieron 21 más. La visión que tenemos de la IA generativa —hacer trampa en los trabajos del instituto y generar imágenes porno— está muy alejada de la realidad: las empresas la utilizan en sus procesos.
Así en el 2023 hemos podido ver varios estudios del impacto de la IA en la productividad en el trabajo. De manera independiente sugieren que la IA permite completar tareas más rápido y con mejor calidad. Estos estudios también demuestran cómo la implantación de la IA ayuda a salvar la distancia de habilidades que separa los trabajadores menos formados de los que lo están más. Por otro lado, la utilización de la IA sin supervisión lo que hace es hacer bajar la productividad.
Y finalmente el dato que explosionará a más de uno, un dato que a primera vista parece que no cuadra con el resto del informe: el número de regulaciones relacionadas con la IA en EE.UU. ha aumentado significativamente durante el último año y durante los últimos cinco años. En el 2023, había 25 normativas relacionadas con la IA, un incremento del 56,3%, y a pesar de todo, los EE.UU. han superado a todo el mundo en el desarrollo de modelos de IA. ¿Cómo es esto? ¿No es la economía de los EE.UU. la menos intervencionista? Y pese a la regulación, ¿cómo es que continúan siendo líderes en IA?
"¿No es la economía de los EE.UU. la menos intervencionista? Y pese a la regulación, ¿cómo es que continúan siendo líderes en IA?"
La respuesta la encontramos repartida entre la 1ª edición de la AI Index Report y la de este año, la séptima. La primera edición, la del 2017 recogía los indicadores de la IA del 2016; aquel año en EE.UU. solo había una normativa relacionada con la IA. Para encontrar la respuesta me he entretenido a leerme el informe del 2017. El informe tiene 72 páginas y el grueso lo ocupan las tecnologías: visión por computador, comprensión del lenguaje natural, demostración de teoremas y superación de pruebas de evaluación estándar.
La edición actual del informe, en cambio, ocupa 458 páginas (datos aparte) y las tecnologías solo son una décima parte aproximadamente. El resto cubre aspectos como la IA responsable, el impacto en la economía, en la ciencia y la medicina, en la educación, en la gobernanza, la diversidad en la IA y el impacto en la opinión pública. La IA ya hace tiempo que salió de los laboratorios y es cada vez más presente en los trabajos, los órganos de gobernanza y en el debate social.
Los datos demuestran que innovar y a la vez regular para garantizar el beneficio social de la tecnología no está reñido. No lo dice la CUP, lo dicen los informes de una universidad privada de EE.UU. que toca leer cada año.