Sobre la inteligencia artificial: antes de opinar, pruébalo

11 de Enero de 2023
Act. 11 de Enero de 2023
Genís Roca

Hay una enorme cantidad de personas que opinan, e incluso pontifican, sobre tecnologías que ni han probado ni conocen. Sorprende, pero es muy habitual. Como quien opina de una película que no ha visto, un país que no ha visitado o una persona que ni siquiera ha saludado. Y tanto lo pueden hacer a favor como en contra. Hay gente loando las virtudes de blockchain o alertando sobre los riesgos de los NFT sin haber tenido jamás ninguna experiencia ni en una cosa ni en la otra, y lo mismo pasa con casi cualquier tecnología de moda de la cual se espera que tengamos opinión, como el 5G, la realidad virtual, las experiencias inmersivas o la inteligencia artificial. No estoy reivindicando que solo opine quien realmente sepa, esto me parece no solo imposible, sino además excesivo, pues no podríamos opinar de futbol, ni de política, cine o música. No, no hay que ser un experto para opinar, pero en general siempre que se pueda sería recomendable haberlo probado antes.

Este final de 2022 ha estado marcado por la aparición de diferentes productos de inteligencia artificial que están provocando un debate vivo e interesante sobre hacia dónde vamos, cómo evolucionará todo esto y qué consecuencias puede acabar teniendo. Primero probadlo, y después bienvenidos al debate, aunque no seáis expertos.

Estos días hay un montón de propuestas sobre la mesa, pero hay dos que destacan sobre el resto, no tanto por su calidad como por la popularidad que han conseguido. La primera se llama DALL-E y es una herramienta que genera imágenes a partir de tus instrucciones, y lo hace casi instantáneamente. Le dices algo así como “quiero un dibujo al estilo de Van Gogh de un astronauta montado a caballo en medio de un campo de margaritas” y su respuesta inmediata son 3 imágenes de acuerdo con esta descripción. La otra herramienta es ChatGPT, un chat donde puedes hablar de lo que quieras. Le puedes preguntar cómo se encuentra, y te contesta. Le puedes pedir una receta para hacer tiramisú, que escriba un artículo de 800 palabras sobre la Revolución Francesa, que te haga un análisis crítico de las letras de las canciones de los Rolling Stones, que te dé argumentos para pedir una rebaja en el precio del alquiler de tu piso, que te sugiera un restaurante en Barcelona para tener una cena romántica, o darle un trozo de código informático y que te ayude a mejorarlo. Y te contesta.

Este final de 2022 ha estado marcado por la aparición de diferentes productos de inteligencia artificial

Vosotros mismos hoy habéis leído cosas en periódicos, revistas, libros, redes sociales, envases de champú y paquetes de galletas, y dais por seguro que todos estos textos han sido escritos por una persona, pero sencillamente no lo sabéis. La probabilidad de que os llevéis una sorpresa es muy alta. Ya casi se puede asegurar que todos vosotros habéis leído en algún momento un texto generado por una máquina y no lo sabéis. En las escuelas de Nueva York están intentando prohibir que los alumnos utilicen ChatGPT porque cuando los profesores evalúan un trabajo ya resulta muy complicado identificar qué ha escrito una máquina y qué el alumno. Este 2022, el ganador del tercer premio de un concurso de fotografía en Colorado, reconoció que la foto era falsa y la había generado con un programa de inteligencia artificial.

Todo el mundo sabe que hay tecnologías que ponen en riesgo ciertos puestos de trabajo, y cuando decimos esto solemos pensar en posiciones poco cualificadas o repetitivas como los brazos robóticos en vez de personas en una cadena de montaje, y también se dice que el talento humano se acabará refugiando en tareas más creativas. Pero ahora nos dicen que una máquina puede hacer un análisis sobre los mercados de valores y hacer una propuesta de inversión, o analizar una mamografía y hacer un diagnóstico. Ahora los puestos de trabajo que se sienten interpelados ya están más cualificados. Si las máquinas pueden tomar decisiones, quizás también empiecen a substituir personas que toman decisiones. Ahora que ya hablamos de jefes y no solo de operarios, ya veréis cómo se impone el argumento de que la tecnología acompaña a los humanos y los complementa, pero no necesariamente tiene que substituirlos.

Antes de opinar sobre todo esto, primero probadlo. Tanto DALL-E (que genera imágenes) como ChatGPT (que genera textos) han sido desarrollados por la misma empresa, la norteamericana OpenAI. Si vais a su web os podréis registrar gratuitamente “solo” indicando un correo y un teléfono. Mi experiencia personal es que después no molestan ni con mensajes ni con llamadas no deseadas. Para probar ChatGPT id a https://chat.openai.com/, y para probar DALL-E id a https://openai.com/dall-e-2/. En los dos casos podréis utilizar el idioma que queráis, por ejemplo el catalán o el euskera.

iStock 1453972821
Imagen promocional de ChatGPT | iStock


No son dos anécdotas, sino ejemplos de un movimiento muy serio y profundo. Si queréis alternativas a DALL-E para generar imágenes podéis probar Stable DiffusionMidjourney. En cuanto a generadores de texto, hay una enorme cantidad de proyectos en curso, y la tendencia no son propuestas tan genéricas como ChatGPT, sino que los esfuerzos parece que van hacia sistemas especializados en disciplinas concretas. Por ejemplo, Google explica en este artículo científico de hace solo quince días que está trabajando en un sistema para atender cuestiones médicas. Trasladaron las mismas preguntas a la máquina y a un grupo de profesionales, y otro grupo de profesionales independiente evaluó todas las respuestas. El resultado fue que la máquina hizo bien el 92,6% de las respuestas, mientras que los profesionales humanos “ganaron” con un 92,9%. Solo tres décimas de diferencia. Ya casi lo tienen. Hay otra empresa, DoNotPay, que está poniendo el foco en temas jurídicos. Dicen tener el primer abogado robot del mundo y han anunciado que este mes de febrero ya tienen un juicio en el que el abogado defensor seguirá obedientemente las instrucciones de su sistema. El programa escuchará todo lo que se dice en la sala durante el juicio gracias a un teléfono móvil, y dictará lo que hay que decir y responder con un auricular en la oreja del abogado. Parece que se trata de un juicio por un tema de tránsito, pero lo quieren probar en un juicio mucho más cualitativo y este mismo 9 de enero Joshua Browder, CEO de DoNotPay, ha anunciado que pagará 1 millón de dólares a quien tenga una causa en la Corte Suprema de los Estados Unidos y acepte defenderse solo repitiendo a pies juntillas lo que le dicte su robot al oído.

Google está muy preocupada con todo esto, dado que otras de las posibles consecuencias es que cambie de manera radical la manera que tenemos de hacer búsquedas en Internet. Si haces una pregunta a Google recibes como respuesta millones de resultados, en cambio, si haces la misma pregunta a ChatGPT recibes una respuesta redactada. Ya hay propuestas como Perplexity.ai o You.com que combinan las dos cosas, y cuando haces una búsqueda te contesta con un texto como los de ChatGPT y una lista de enlaces como la de Google. Si lo pruebas verás que es muy práctico. Google hace bien de estar muy preocupada porque cuando analizas la empresa OpenAI responsable de ChatGPT ves que el 2019 Microsoft invirtió 1.000 millones de dólares en ella, y Microsoft ya ha anunciado planes para integrar ChatGPT en su buscador Bing, pero también en Word y PowerPoint. Sam Altman, el joven fundador y responsable de OpenAI ya ha avisado que muy pronto, esté mismo 2023, llegarán evoluciones que harán que la actual versión de ChatGPT nos parezca un juguete primitivo.

Todo este entorno pide y merece muchos debates. Por ejemplo, los siempre atentos Domestic Data Streamers, ubicados en Barcelona, pero activos por todo el mundo, compartían estos días el debate que hay en las comunidades creativas sobre si los profesionales están a favor o en contra de estas herramientas o si estos sistemas han de estar más o menos sometidos a la lógica de los derechos de autor. En otros ámbitos ya se está discutiendo la necesidad de un marco legal que obligue a avisar si el contenido que recibes ha sido generado por una máquina, por ejemplo con una marca de agua cuando sea una imagen o con un reconocimiento explícito cuando sea un texto. Difícil.

Google hace bien de estar muy preocupada

En todo caso estamos solo en el inicio. Muy pronto, cuando llames por teléfono a un servicio en vez de una voz metálica que te pide que pulses uno si quieres hacer un pedido, dos si quieres hacer una consulta o tres si quieres presentar una queja, te recibirá una voz cálida que sencillamente te dirá “buenos días, ¿en qué puedo ayudarte?” y le explicarás lo que te pasa o lo que quieres, y te contestará, y tendrás una conversación amable, y al colgar no habrás ni sospechado que en ningún momento has hablado con una persona, y que todo el rato ha sido una máquina. Igual que ahora te dicen “esta llamada será grabada”, quizá sí que por normativa también estén obligados a avisar “usted está siendo atendido por una máquina”.

Están pasando cosas, y pasarán más. Necesitamos tu opinión, pero antes pruébalo.