En solo un año desde su lanzamiento en noviembre de 2022, ChatGPT ha tenido un impacto social y mediático sin precedentes. Una semana después de su lanzamiento, más de un millón de usuarios se habían registrado, hoy tiene 100 millones de usuarios activos semanales y está valorado en 89.000 millones de dólares. Innegablemente, ChatGPT tiene la capacidad de transformar el panorama tecnológico y social. Pero, ¿lo está haciendo? ¿Es solo un prototipo con más expectativas que realidad? Veamos cómo ha sido este último año con ChatGPT; lo bueno, lo malo y lo feo.
Lo bueno
Democratización
OpenAI se funda en 2015 con la misión de democratizar la inteligencia artificial y utilizarla en beneficio de toda la humanidad, una iniciativa visionaria que contrasta con las prácticas monopolísticas imperantes de los cinco gigantes tecnológicos. La filosofía de OpenAI abogaba por un modelo más inclusivo y abierto de desarrollo e implementación de la IA para asegurar que su poder transformador fuera accesible para toda la sociedad.
"OpenAI se funda en 2015 con la misión de democratizar la inteligencia artificial"
De esta visión surge ChatGPT, un chatbot conectado a un modelo grande de lenguaje que democratiza el acceso a la IA; cualquier persona que sepa enviar un WhatsApp tiene a su alcance la tecnología de IA más avanzada. Tanto es así que en solo un año y para 100 millones de personas, ChatGPT se ha convertido en una herramienta versátil: para la educación, para la investigación, para el ocio y para la empresa. No sin sus problemas, como veremos más adelante.
Universalización
Esta democratización incluye la ruptura de barreras lingüísticas; ChatGPT comprende la mayoría de los idiomas y es capaz de generar textos en idiomas de los cuales hay poco contenido en línea. No es el caso del catalán, que gracias a la gran cantidad de contenido disponible y de su buena calidad, ChatGPT es muy competente en nuestra lengua.
Debate social
Pero más allá de sus capacidades y limitaciones tecnológicas, la gran contribución de ChatGPT ha sido el debate social que ha provocado. Su irrupción hace 12 meses marca un antes y un después, no solo en la evolución de la IA sino en la conversación global sobre su potencial e implicaciones. Quiero creer que su aparición ha sido un catalizador para una comprensión más profunda y matizada de su impacto y que ha ayudado a fomentar el espíritu crítico.
Lo malo
Apropiación
Resumiendo: el entrenamiento de la red neuronal de ChatGPT podría ser el caso de violación de derechos más grande de la historia. Para crear un gran modelo lingüístico (LLM) como el GPT, se necesitan grandes cantidades de datos en línea, entre los cuales hay materiales con derechos de autor. Esto plantea problemas legales complejos en el ámbito de la ley de derechos de autor. En una red neuronal, los pesos (parámetros) se ajustan a medida que "aprende" con los datos que se le suministran. Podríamos considerar la distribución final de pesos (fruto del entrenamiento) como una obra creada a partir de las obras utilizadas para entrenarla. Si se utilizan textos, imágenes y otros medios con derechos de autor, los pesos de la red neuronal resultante forman en realidad una obra derivada de obras que prohíben explícitamente las creaciones derivadas. Este escenario plantea desafíos legales importantes en cuanto a los derechos de propiedad intelectual y sobre cómo compensar a los creadores.
Sesgos
Otro problema de los datos de aprendizaje es el de los sesgos. Los datos no salen de la nada, sino que provienen de la sociedad que los genera. Y las sociedades, grupos e individuos tienen sesgos y prejuicios que los datos reflejan. Esto plantea preguntas sobre la equidad e imparcialidad de las respuestas generadas por ChatGPT, especialmente en áreas sensibles como la política, la raza y el género. Y no solo eso, la adopción generalizada de estos sistemas podría sesgar aún más la sociedad en un bucle de sesgos de confirmación muy peligroso.
Antropomorfització
La antropomorfización de ChatGPT, donde la tecnología se presenta con atributos similares a los humanos, supone un riesgo importante. Cuando ChatGPT utiliza la primera persona del singular, verbos como "pensar" o "buscar", o simula un tiempo de respuesta más lento para dar la ilusión de un procesamiento reflexivo, puede hacer que los usuarios le atribuyamos erróneamente una conciencia humana o una capacidad emocional que no tiene. Esta representación antropomórfica puede crear expectativas falsas sobre las capacidades de la IA.
"ChatGPT puede hacer que los usuarios le atribuyamos erróneamente una conciencia humana o una capacidad emocional que no tiene"
En el contexto de la IA como ChatGPT, la antropomorfización se puede ver como un "patrón oscuro de interacción" porque engaña a los usuarios para que crean que la IA tiene autonomía, comprensión o empatía. Esto no solo tiene implicaciones éticas, sino que también afecta la forma en que los usuarios interactúan con la tecnología y la confianza que depositan en ella.
Alucinaciones
Es el término científico que se utiliza para decir que los sistemas de IA generativa inventan cosas. Aunque ChatGPT puede generar textos sintácticamente impecables, comete imprecisiones y errores garrafales fruto de las limitaciones del modelo. Es importante entender que un modelo de lenguaje solo es capaz de generar texto inteligible. Es el observador quien le atribuye inteligencia. Esto no tiene nada que ver con tener un modelo del mundo; con sus relaciones de causalidad, los principios básicos de física (se llama física ingenua) y la capacidad de hacer planificaciones a largo plazo, todos ámbitos en los que un gato supera a ChatGPT con creces. La combinación de imprecisiones que pasan desapercibidas y la proyección de inteligencia que le hacemos debido a la antropomorfización plantea muchos riesgos.
Los AI Bros
Los algoritmos de aprendizaje profundo necesitan muchas datos y mucha capacidad de cálculo. Durante el boom de las criptomonedas, las GPU eran muy buscadas por su capacidad para realizar de manera eficiente los cálculos complejos necesarios para su minería. Esto provocó un aumento desmesurado de la demanda y, por lo tanto, de los precios. Sin embargo, a medida que el mercado de criptomonedas experimentaba volatilidad y regulaciones, el atractivo de las inversiones en criptomoneda comenzó a disminuir.
Simultáneamente, la IA, especialmente el aprendizaje profundo, comenzó a ganar impulso y las GPU que ya no demandaban los Crypto Bros comenzaron a estar disponibles para la IA. Sus capacidades de procesamiento en paralelo y eficiencia las hacen perfectas para entrenar modelos de IA. Una externalidad negativa ha sido que los Crypto Bros han encontrado un nuevo interés en el campo de la IA; ahora proliferan los canales de AI Bros en las redes, que todo lo que hacen es generar imágenes excesivamente saturadas con el Dall-E 3 o con el Midjourney.
El apocalipsis
Cuando Umberto Eco acuñó la expresión "apocalípticos e integrados", poco se pensaba que habría un movimiento literal de apocalípticos. Figuras tan notables como Sam Altman, Elon Musk, Yuval Noah Harari y Nick Bostrom hacen sonar las trompetas sobre las posibles amenazas existenciales que supone la IA avanzada. Advierten que el desarrollo de la IA sin control podría dar lugar a escenarios en los que la IA supere la inteligencia y la autonomía humana, potencialmente dominándonos o incluso conduciendo a la extinción de la civilización. Aunque estas preocupaciones están arraigadas en incertidumbres legítimas sobre la trayectoria futura de la IA, estas advertencias obedecen más a intereses personales y empresariales que a riesgos reales.
"La mayoría de los sistemas de IA, incluidos los más sofisticados, operan dentro de un rango reducido de capacidades"
El estado actual de la IA está muy lejos de lograr el tipo de autonomía superinteligente que presuponen estos escenarios. La mayoría de los sistemas de IA, incluidos los más sofisticados, operan dentro de un rango reducido de capacidades y están lejos de poseer la inteligencia general o la autoconciencia que sería necesaria para estos escenarios apocalípticos.
Sobreinformació desinformada
El papel de los medios al informar sobre la IA es fundamental, aunque con demasiada frecuencia es víctima del sensacionalismo y de los clics fáciles, impulsados irónicamente por los algoritmos de IA de las redes sociales. Esta tendencia al sensacionalismo a menudo conduce a representaciones exageradas o engañosas de las capacidades y los riesgos de la IA. Esto crea una percepción distorsionada de la IA que resulta en miedos infundados o expectativas poco realistas. Falta periodismo responsable en este campo que tenga como objetivo educar e informar. Los medios tienen la obligación de desmitificar la IA, poniendo el peso en las personas y no en los algoritmos. Desde la irrupción de ChatGPT, están haciendo justamente lo contrario.
¿ChatGPT o no?
A pesar de su tecnología innovadora y sus impresionantes capacidades de conversación, todavía se percibe a ChatGPT como un prototipo y su aplicación práctica en el entorno empresarial es escasa. Muchas empresas luchan por encontrar aplicaciones concretas y de valor añadido para la herramienta, más allá de los chatbots de atención al cliente o la generación de contenido. Esta brecha entre la sobreexpectativa y la utilidad real en contextos empresariales pone de manifiesto un patrón común en las tecnologías emergentes: la emoción inicial y las expectativas infladas preceden al proceso de adopción.
Y todo esto, ¿quién me lo paga?
La creación de modelos de IA a partir de grandes cantidades de datos en línea, sin compensar a los creadores del contenido original ni respetar a los propietarios, es uno de los pecados originales de ChatGPT. Esta situación recuerda un poco a la era de Napster, donde el contenido digital se distribuía sin la autorización ni la compensación adecuada a los creadores. OpenAI no tiene un modelo de negocio claro que tenga en cuenta los derechos y las contribuciones de estos creadores, lo que genera preocupaciones sobre la sostenibilidad de las industrias creativas. Además, a medida que los chatbots se vuelvan más sofisticados y se utilicen para la recuperación de información, existe el riesgo de que puedan suplantar a los motores de búsqueda tradicionales cortando el tráfico a las fuentes de contenido originales. Este cambio podría tener implicaciones profundas para el ecosistema mediático, dejándolo más magro de recursos aún.
Lo feo
La magia es el cerebro de otro
Uno de los aspectos más preocupantes de la evolución de ChatGPT y otras plataformas de IA generativa tiene que ver con la calidad de las conversaciones que tenemos con ellas. Parece mágico que puedan responder todo lo que les pedimos, pero para que esto ocurra, las respuestas dudosas son revisadas por miles de humanos al otro lado del mundo, que anotan el error y sugieren una respuesta correcta. Anotadores en países de bajos ingresos supervisan modelos de IA en condiciones de trabajo menos que ideales, a 2 y 3 dólares por hora, sin posibilidad de sindicarse y trabajando desde casa. Detrás de la novedad de la IA, hay viejas prácticas de explotación laboral y de vulnerabilidad social de siempre.
Juego de tronos
La lucha por el poder dentro de OpenAI, que culminó con el despido y la readmisión de Altman, ilustra claramente la profunda división en la comunidad de IA sobre el ritmo y la dirección de su desarrollo. Por un lado, figuras como Altman abogan por la necesidad del desarrollo rápido y el despliegue público como esenciales. En cambio, otros, incluido el científico en jefe de OpenAI, Ilya Sutskever, expresan su preocupación por la seguridad y la controlabilidad de la IA que creen que avanza demasiado rápidamente. Esta división no es solo teórica; refleja visiones diferentes de cómo aprovechar de manera responsable el potencial transformador de la IA, equilibrando la innovación con la precaución.
¿Una partida de Monopoly?
El telón de fondo de este conflicto interno incluye las inversiones de hasta 13.000 millones de dólares que Microsoft ha realizado en OpenAI, las cuales han complicado aún más la situación. El lanzamiento de ChatGPT provocó un aumento en las inversiones en empresas de IA. Esta afluencia de capital, especialmente de los principales actores tecnológicos, ha influido a su vez en el ritmo y las prioridades del desarrollo de OpenAI, alineándose con el enfoque agresivo de Altman hacia el crecimiento y la expansión. Sin embargo, este enfoque ha suscitado preocupaciones sobre el alejamiento de la misión original sin ánimo de lucro de OpenAI.
"El telón de fondo de este conflicto interno incluye las inversiones de hasta 13.000 millones de dólares que Microsoft ha hecho en OpenAI"
El nombre no hace la cosa
La evolución de OpenAI, especialmente desde su asociación con Microsoft, marca un cambio significativo respecto a su misión original de democratizar la IA en beneficio de la sociedad. El compromiso inicial de la organización con la apertura ahora se cuestiona, especialmente por la falta de transparencia que rodea a su último modelo, GPT-4. A diferencia de sus predecesores, OpenAI no ha publicado información detallada sobre los parámetros, el tamaño, la documentación o los datos de entrenamiento de GPT-4. Este cambio de enfoque indica una salida del ethos abierto que fue fundamental para la identidad y la misión de la empresa durante sus primeros siete años. Esta transición refleja la compleja dinámica entre mantener la investigación abierta y las presiones comerciales y competitivas en el campo de la IA. El nombre le ha durado siete años.
Largoterminismo
La estrategia de Altman y otros responsables de OpenAI de centrarse en los hipotéticos problemas que la IA podría causar a largo plazo es vista por muchos como una cortina de humo para no hablar de los problemas reales actuales. Si hablas de la extinción humana, la ética, los derechos intelectuales, el impacto social, la propiedad de los datos y la privacidad dejan de tener importancia. Yann LeCun, uno de los líderes de la IA y jefe de Meta, decía que preocuparse por los efectos a largo plazo es como si los hermanos Wright se hubieran preocupado por los accidentes de aviación aquel día de 1903 en que hicieron volar un biplano durante 12 segundos en Carolina del Norte.
Frankenstein y el Dr. Frankenstein
El hecho de que Altman haya sido recibido por todo tipo de líderes mundiales solo confirma la creciente intersección entre tecnología y política. Altman se ha reunido con el primer ministro británico Rishi Sunak, el presidente francés Emmanuel Macron, el presidente español Pedro Sánchez, el canciller alemán Olaf Scholz y el presidente de Corea del Sur Yoon Suk Yeol, entre otros. Es la visualización de la tecnopolítica, de las relaciones entre la tecnología y el ejercicio del gobierno, de la creciente influencia de los líderes tecnológicos en los asuntos globales.
"La influencia que ejercen individuos como Altman, Musk o Zuckerberg, compite o incluso supera la de muchos estados"
Es un cambio significativo en la dinámica del poder global. La influencia que ejercen individuos como Altman, Musk, Zuckerberg o Bezos, y sus empresas, compite o incluso supera la de muchos estados. Su capacidad para dar forma al discurso, la política e incluso a las políticas económicas y militares globales vislumbra una época en la que el poder se define cada vez más no solo por la fuerza política o militar, sino por la destreza tecnológica y el control de la infraestructura digital.
Solow
El economista y premio Nobel Robert Solow reflexionaba en 1987 sobre el impacto de las computadoras en la economía. Decía: "Puedes ver la era de las computadoras en todas partes, excepto en las estadísticas de productividad". Esta afirmación, hoy conocida como la paradoja de la productividad de Solow, es aplicable a cualquier tecnología. La paradoja encapsula las complejidades y los desafíos de medir con precisión los impactos de productividad de las innovaciones tecnológicas, especialmente en sus primeras etapas.
Un año después de ChatGPT, en cuanto al impacto económico aún estamos en los años 1980 de Solow; en cuanto al impacto en los creadores estamos en los años 2000 de Napster y en cuanto al poder de OpenAI estamos en los años 1990 de Microsoft.