Dicen que el orden de los factores no altera el producto. Pero si los factores son un desastre, el producto también lo será. Y en tecnología, este desastre tiene un nombre: GIGO (Garbage In, Garbage Out), y los RAG son un escaparate de esta nueva manera de ver el mundo.
Todos hemos oído hablar de FIFO (First In, First Out) y LIFO (Last In, First Out). FIFO es el orden natural de la vida: el primero que entra es el primero que sale, como una cola en el supermercado. LIFO, en cambio, es el modelo que aplica cualquier criatura cuando reparte galletas: la última para él, la primera también.
Pero estos sistemas de gestión de datos son anecdóticos cuando el problema real en 2025 es el GIGO: si lo que entra es basura, lo que sale también. Da igual cómo la IA procesa la información, porque si los datos de entrada son defectuosos, los resultados serán igual de malos. En mi casa, cuando el pescado no es bueno, la zarzuela sale mediocre.
"Da igual cómo la IA procesa la información, porque si los datos de entrada son defectuosos, los resultados serán igual de malos"
Si pensamos en inteligencia artificial, ya tenemos ejemplos reales de GIGO a montones.
- Amazon y su sistema de contratación machista
Amazon diseñó una IA para filtrar currículums. ¿El problema? Estaba entrenada con datos históricos de contratación donde la mayoría de los contratados eran hombres. ¿Solución de la IA? Penalizar cualquier CV que mencionara la palabra “mujer” (women’s chess club captain = descartado). - El chatbot racista de Microsoft
Microsoft lanzó Tay, una IA conversacional, a Twitter con la idea de que aprendiera de los usuarios. En menos de 24 horas, se había convertido en un monstruo xenófobo, porque —¡sorpresa!— los usuarios le enseñaron lo peor de Internet. - Las IA generativas y los “hechos alternativos”
Chatbots como ChatGPT, Gemini o Grok pueden fabricar datos falsos sin ningún problema si han sido entrenados con información errónea o sesgada. Abogados que han presentado jurisprudencia inventada, periodistas que han confiado demasiado en resúmenes automáticos y estudiantes que han entregado trabajos con citas inexistentes son ejemplos cotidianos.
Y no me malinterpretéis, como ya dije en VIA Empresa, los grandes problemas tecnológicos son problemas reales y poco tecnificados.
Cuando gobiernos y empresas toman decisiones basadas en datos malos, los resultados pueden ser catastróficos en la vida real. Desde algoritmos bancarios que deniegan créditos e hipotecas de forma discriminatoria hasta sistemas de predicción policial que amplifican los prejuicios raciales, la tecnología no es neutral: solo refleja lo que le ponemos dentro.
Ninguna IA puede procesar basura y escupir filigranas de oro. Yo no la he encontrado. Si queremos que los sistemas digitales sean útiles, hay que invertir en datos de calidad, sistemas transparentes y modelos entrenados de forma responsable.
Los nuevos modelos de ChatGPT se han vuelto más cautelosos con las respuestas, pero porque se han dado cuenta de que la entrada de información indiscriminada era absolutamente estrambótica, y el resultado eran disparates con sello de autoridad. Lo que ahora llaman «espejismos» o «alucinaciones» de la IA, son cagadas monumentales.
"Ninguna IA puede procesar basura y escupir filigranas de oro"
¿Lo mejoraremos? Claro. Necesitamos tiempo para generar datos, para limpiarlos, ordenarlos, arreglarlos… pero en la carrera por ser la mejor herramienta de IA parece que no lo hay, de tiempo.
FIFO y LIFO pueden ayudar a organizar la información, pero si no dejamos de alimentar la tecnología con basura, solo conseguiremos resultados basura. Si quieres comer sano, no comas comida rápida. Necesitas tiempo para hacer una buena base para las lentejas, y estas salen más buenas si las haces con tiempo y calma.