#57 - Explicabilidad, agentes y trabajo: hacia una IA que podamos fiarnos (y entender)
En este episodio, Álex Fuenmayor e Ignacio G. R. Gavilán se sumergen en algunos de los dilemas más fascinantes y urgentes de la inteligencia artificial actual: la explicabilidad de los modelos, el determinismo (o su ausencia) en los LLMs, la evolución hacia la IA agéntica y las implicaciones sociales que todo esto puede tener en el futuro del trabajo.Ignacio, pionero en la divulgación sobre IA mucho antes del hype actual, arranca repasando cómo la explicabilidad se ha convertido en un tema ético clave: si una IA toma decisiones que afectan a personas —como conceder un préstamo o aprobar una contratación— debemos poder entender el porqué. Explica que mientras los árboles de decisión son totalmente interpretables, las redes neuronales —base de los modelos generativos actuales— son intrínsecamente opacas.Aunque en teoría son deterministas (misma entrada, misma salida), en la práctica la aleatoriedad de las GPUs puede generar pequeñas variaciones incluso con temperatura cero, un fenómeno documentado recientemente por el laboratorio de Thinking Machines en su artículo “Defeating Non-Determinism in LLM Inference”.Desde ahí, la conversación se adentra en terreno filosófico:¿Podemos confiar en algo que no comprendemos?¿Basta con la fiabilidad empírica o necesitamos una explicación causal?Álex plantea el paralelismo con la “seguridad de caja blanca” frente a la “caja negra”: transparencia total versus confianza práctica basada en resultados.El diálogo avanza hacia los usos empresariales:En analítica y automatización, Ignacio advierte del abuso de los modelos generativos en territorios donde los métodos tradicionales siguen siendo más fiables.En cambio, los ve poderosos como copilotos, amplificando la productividad individual sin sustituir completamente el juicio humano.A partir de ahí exploran las nuevas arquitecturas de agentes —reactivos, deliberativos e híbridos— y el patrón CWD (Coordinator, Worker, Delegator), que replica la jerarquía de una empresa en sistemas multiagente. Comparan estos nuevos “agentes inteligentes” con los RPA tradicionales, subrayando que la diferencia esencial está en “dónde reside el cerebro”: en el código fijo de un desarrollador o en un modelo fundacional capaz de decidir y razonar en lenguaje natural.En la recta final, la charla se amplía hacia los modelos neurosimbólicos, una alternativa emergente que combina el aprendizaje de las redes neuronales con el razonamiento lógico de los sistemas simbólicos. Ignacio los interpreta como un intento de biomímesis cognitiva: reproducir cómo el cerebro humano une intuición neuronal y razonamiento simbólico.El episodio cierra con un debate más humano que técnico:la automatización del trabajo, el posible papel de la renta básica universal y la crisis de sentido que podría surgir en sociedades donde “no hacer nada” deje de ser una opción temporal y se convierta en un estado permanente.En resumen:Un episodio denso y apasionante donde la IA se examina desde todos los ángulos: técnico, ético, filosófico y social.Desde las GPU que introducen aleatoriedad hasta los agentes que podrían sustituirnos… o ayudarnos a ser mejores.PD: Si quieres profundizar en los temas tratados:“Robots en la Sombra” — Ignacio G.R. Gavilán“Artificial Intelligence: A Modern Approach” — Russell & Norvig“The Alignment Problem” — Brian Christian“Hybrid Intelligence” — Diederik M. Roijers et al.“Neurosymbolic AI: The Third Wave” — IBM Research Paper