CluPad

Carlos Guadián
CluPad
Último episodio

27 episodios

  • CluPad

    La visión de la Generalitat sobre la IA, con Jaume Miralles

    02/02/2026 | 31 min
    La inteligencia artificial suele presentarse como una promesa casi mágica o como una amenaza difícil de controlar. Sin embargo, cuando se baja al terreno de la administración pública, la conversación cambia. Se vuelve más concreta, más cotidiana y también más humana. Eso es lo que ocurre al escuchar a Jaume Miralles, nuevo director general de Inteligencia Artificial, Eficiencia y Datos de la Generalitat de Catalunya. Lejos de los titulares exagerados, su mirada apunta a algo más prosaico, pero también más transformador, usar la tecnología para hacer que la administración funcione mejor, por dentro y por fuera.
    Miralles llega al sector público desde el mundo privado, casi por sorpresa. Él mismo reconoce que no tenía un plan trazado y que se apuntó al proceso de selección más por curiosidad vital que por ambición política. “Me pareció una experiencia vital interesante”, explica, y ese matiz no es menor. Porque desde ahí se entiende bien el enfoque que plantea, menos ideológico y más práctico. La inteligencia artificial no como bandera, sino como herramienta.
    La nueva dirección general se articula alrededor de tres grandes palancas que actúan como habilitadores transversales. Por un lado, los datos. Ordenarlos, gobernarlos y ponerlos al servicio de la toma de decisiones. No es un tema glamuroso, pero sin datos bien gestionados no hay inteligencia artificial que valga. Miralles lo resume con claridad cuando señala que la misión es “tener los datos ordenados y ponerlos a disposición de todo el gobierno con herramientas que permitan extraer conocimiento”. Dicho de otra forma, antes de correr hay que aprender a caminar.
    La segunda palanca es la automatización orientada a la eficiencia. Aquí conviven tecnologías maduras como la RPA con nuevas aproximaciones basadas en agentes inteligentes. No todo es inteligencia artificial generativa, y eso también es un mensaje importante. Se trata de ganar tiempo y reducir fricción, tanto en los trámites como en la gestión interna. La tercera palanca es la innovación, entendida como GovTech, es decir, tecnología aplicada a necesidades reales del gobierno, muchas veces en colaboración con el ecosistema local.
    Todo esto tiene un objetivo claro, transformar los servicios públicos y el entorno de trabajo de los empleados públicos. No se trata solo de digitalizar formularios, sino de repensar cómo se trabaja y cómo se atiende a la ciudadanía. En ese contexto aparece uno de los retos más complejos, la adopción real de la inteligencia artificial por parte de las personas. El objetivo es ambicioso, que en 2028 el cien por cien de los trabajadores públicos utilicen IA de una forma u otra.
    La estrategia para lograrlo se articula en tres niveles. El primero es el personal. Asistentes como Copilot o herramientas similares se ponen a disposición de los trabajadores, pero acompañadas de formación y criterio. Miralles insiste en una idea clave, “estas herramientas no son infalibles, se equivocan”, y, por tanto, la responsabilidad última sigue siendo humana. Aquí la alfabetización crítica es tan importante como la tecnología.
    El segundo nivel es el de las unidades de trabajo. Pequeños asistentes o automatismos pensados para resolver tareas concretas de bajo riesgo, diseñados y gestionados por los propios equipos. Esto introduce autonomía y acelera la innovación interna. El tercer nivel es el corporativo, donde entran los grandes proyectos TIC, los asistentes abiertos a la ciudadanía y las soluciones que requieren mayores garantías de seguridad y gobernanza.
    La gobernanza ética no aparece como un freno, sino como un sistema de semáforos. No se regula la tecnología, se regula el uso. Cada caso de uso pasa por una evaluación inicial de riesgo y, si es necesario, por un análisis más profundo del impacto en derechos fundamentales. El equilibrio es delicado. Miralles lo expresa de forma muy gráfica cuando señala que el modelo debe garantizar el uso responsable “pero a la vez no nos paralice”. Porque una administración bloqueada por el miedo al error también deja de servir a la ciudadanía.
    Hacia fuera, la transparencia es un principio explícito. Cuando la inteligencia artificial se utiliza en servicios digitales, se indica claramente. Ya ocurre en la web de la Generalitat, donde los resúmenes generados automáticamente advierten de que pueden contener errores. Además, la Generalitat de Catalunya ha publicado un registro de casos de uso de IA en producción, con más de treinta entradas, donde se explican riesgos, mitigaciones y criterios de diseño. No es un gesto menor en un contexto donde la confianza institucional está siempre en juego.
    Mirando al futuro, la imagen que dibuja Miralles es bastante clara. Trámites sencillos que deberían ser tan fáciles como hacer una transferencia bancaria y, al mismo tiempo, más recursos humanos allí donde el contacto personal es insustituible. Automatizar lo rutinario para ganar tiempo de calidad en lo complejo. La tecnología como una corriente que empuja, no como una ola que arrasa. Quizá por eso su reflexión final resulta especialmente lúcida, “la IA es una tecnología que puede hacer mucho, pero no hay que perder el control ni perder la cabeza, siempre con propósito”.
    En el fondo, la entrevista deja una sensación poco habitual cuando se habla de inteligencia artificial. No promete milagros ni invoca futuros abstractos. Habla de datos, de procesos, de personas y de decisiones cotidianas. Como si la inteligencia artificial, en lugar de mirar al cielo, estuviera aprendiendo por fin a caminar por el suelo de la administración pública. Y tal vez ahí, sin ruido y sin épica, esté ocurriendo la verdadera transformación.


    This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
  • CluPad

    Una extensión para gestionar tus prompts de manera fácil y sencilla

    05/01/2026 | 7 min
    Cada año, el día 5 de enero, muchos dejamos preparados pequeños regalos. Algunos son materiales, otros son excusas para compartir algo que nos ha sido útil durante el año. Este es de los segundos.
    Hoy quiero compartir una extensión para Google Chrome que he desarrollado yo mismo y que le he puesto el nombre (nada presuntuoso ^_^) Biblioteca de Prompts Universal. Es un proyecto sencillo, abierto y pensado para resolver un problema muy concreto, cómo gestionar prompts de forma ordenada, reutilizable y compatible con distintas herramientas de IA.
    La extensión es gratuita, de código abierto, y se puede descargar desde GitHub con el siguiente botón:
    Un problema cotidiano. Demasiados prompts, demasiado desorden
    Si trabajas a diario con ChatGPT, Claude, Perplexity o herramientas similares, este escenario te resultará familiar. Prompts guardados en notas, documentos, correos, capturas o directamente en la memoria. Prompts buenos que se pierden. Prompts que vuelves a escribir una y otra vez con pequeñas variaciones.
    El problema no es la falta de ideas, es la falta de sistema. Ya hablé en su momento de como diseñar una biblioteca de prompts, y en Autoritas Consulting hemos puesto en marcha una con control de versiones, centralizada y con extensión incluida que nos permite gestionar tanto los prompts de equipo, como los personales.
    Pero para la gran mayoría de usuarios, necesitamos algo que permita guardar, clasificar, buscar y reutilizar prompts, sin depender de una sola plataforma ni de un único modelo de lenguaje. Algo que funcione como una pequeña caja de herramientas personal.
    De esa necesidad nace esta extensión.

    Un experimento personal. Mi primera experiencia de vibe coding con Gemini 3 Pro
    Este proyecto tiene además una dimensión personal. Ha sido mi primera experiencia real de vibe coding, desarrollando una herramienta funcional a partir de una conversación continua con Gemini 3 Pro.
    No partí de un diseño cerrado ni de un roadmap técnico. Partí de una idea clara, de unas necesidades muy concretas y de una pregunta sencilla, ¿qué necesito para trabajar mejor con prompts en mi día a día?
    A partir de ahí, el desarrollo fue iterativo, conversacional y muy fluido. Definía una necesidad, la describía en lenguaje natural, ajustaba detalles y validaba el resultado. No ha sido magia, aunque hace unos años sí que lo hubiera pensado, pero sí fue una demostración clara de cómo los modelos actuales permiten prototipar herramientas útiles sin ser un desarrollador profesional.
    El resultado no es una plataforma compleja. Es algo mejor, una herramienta pequeña que hace bien una sola cosa.
    Qué es la Biblioteca de Prompts Universal
    La Biblioteca de Prompts Universal es una extensión de Chrome que permite:
    * Guardar prompts en una biblioteca local organizada por carpetas.
    * Reordenar prompts y carpetas según tu forma de trabajo.
    * Buscar prompts por texto de forma inmediata.
    * Exportar e importar toda la biblioteca en formato JSON.
    * Insertar prompts directamente en ChatGPT, Claude, Perplexity y otras herramientas.
    * Trabajar con variables dinámicas dentro de los prompts.
    No hay cuentas, no hay servidores, no hay sincronización forzada. Todo está en tu navegador y puedes hacer copia de seguridad cuando quieras.
    Prompts con variables. Un detalle pequeño que cambia mucho
    Uno de los elementos que me resultan más útiles de la extensión es el soporte para variables, definidas con doble llave, por ejemplo {{texto}}, {{tono}}, {{temática}}.
    Esto permite crear prompts reutilizables de verdad. No un texto fijo, sino una plantilla inteligente.
    Un ejemplo simple. Un prompt de resumen que siempre funciona igual, pero al que solo cambias el texto, el tono o el contexto. Cuando insertas el prompt, la extensión te pide esos valores y construye el mensaje final automáticamente.
    Este pequeño detalle ahorra tiempo y reduce fricción. Y sobre todo, fomenta pensar los prompts como sistemas y no como frases sueltas.
    Cómo instalarla y utilizarla
    En el video de cabecera tenéis todo el proceso explicado, desde como descargarla de GitHub e instalarla en Google Chrome. También tenéis una demostración práctica de las funcionalidades que tiene y de como utilizarlas.
    ACTUALIZACIÓN: Actualmente, la extensión es válida tanto para Chrome como para Firefox. Para ello solo hay que acceder a la página de descargas y elegir la versión apropiada.
    Por qué una extensión y no otra plataforma
    Hay muchas herramientas para gestionar prompts. Algunas son muy completas. Precisamente por eso, muchas veces no se usan.
    Aquí la apuesta es otra. Ligereza, control y portabilidad.
    Al ser una extensión de Chrome, la biblioteca está siempre a mano. No tienes que cambiar de herramienta ni de flujo. Al poder exportar e importar en JSON, no hay dependencia. Si mañana cambias de navegador o de ordenador, te llevas tus prompts contigo.
    Y al ser un proyecto abierto, cualquiera puede adaptarlo, mejorarlo o simplemente usarlo tal como está.
    Un regalo de Reyes, en el sentido práctico
    Este no es un regalo envuelto en papel. Es un regalo funcional.
    Si trabajas en comunicación, consultoría, sector público, formación o análisis, sabes que los buenos prompts se construyen con tiempo y experiencia. Tenerlos bien organizados es una ventaja competitiva pequeña, pero constante.
    Por eso comparto esta extensión como un regalo de Reyes. Porque me ha resultado útil, porque me ha enseñado mucho sobre cómo desarrollar con IA, y porque creo que puede ayudar a otros a trabajar mejor con las herramientas que ya usan.
    Dónde encontrarla y cómo empezar
    La extensión está disponible en GitHub, con instrucciones claras de instalación y uso.
    No necesitas conocimientos técnicos avanzados. Solo un poco de curiosidad y ganas de ordenar tu caja de herramientas.
    Cierre y próxima iteración
    Como todo proyecto pequeño, este no está cerrado. Es una base. Un primer experimento que ya funciona y que se puede mejorar.
    Si la pruebas y te resulta útil, si detectas mejoras posibles no dudes en comentarlo o si simplemente te inspira a crear tus propias herramientas, el objetivo ya está cumplido. Con eso me doy por satisfecho.
    A veces, el mejor regalo no es una gran promesa sobre el futuro de la IA, sino una solución concreta para el trabajo del día a día.
    Por último, el mejor regalo de vuelta que me puedes hacer si encuentras la extensión útil es poner un like, republicar, compartir e invitar a tus contactos que se suscriban a CluPad.

    ¡Gracias por leer CluPad! Suscríbete gratis para recibir nuevas publicaciones y dar apoyo a mi trabajo.



    This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
  • CluPad

    #13 4C - Hablando de extrema derecha con Franco Delle Donne

    12/11/2025 | 1 h 4 min
    Hoy toca un nuevo episodio de 4C, sí, ese que tengo el placer de hacer con Cristina Juesas, espero que os interese, ya que es un episodio especial.

    En este episodio de 4C, conversamos con Franco Delle Donne, doctor en Comunicación por la Freie Universität Berlin y autor del podcast Epidemia Ultra, así como de la serie En la mente de, producida junto a El Orden Mundial. Su trabajo aborda cómo la extrema derecha global ha logrado consolidar una narrativa eficaz, expandirse y normalizar discursos que antes eran marginales.
    La conversación analiza la figura de Viktor Orbán y el papel de Arthur Finkelstein en la construcción del enemigo político a través de George Soros, una estrategia que se convirtió en referencia internacional para movimientos ultraderechistas. También hablamos de Steve Bannon, Peter Thiel y los vínculos entre financiación, ingeniería cultural y construcción de identidad política.
    A partir de ahí, exploramos:
    * Cómo la extrema derecha adapta y reutiliza conceptos como “pueblo”, “libertad” o “seguridad”.
    * El impacto de la desigualdad y la frustración intergeneracional en el auge actual.
    * El rol central de las narrativas y del relato personal en la adhesión política.
    * Estrategias comunicativas en España, incluyendo fenómenos recientes como Se acabó la fiesta y la proliferación de influencers políticos como Vito Quiles.
    Finalmente, discutimos cómo restablecer conversaciones en entornos polarizados y qué papel pueden jugar la empatía estratégica, el lenguaje común y la reconstrucción de marcos compartidos.
    Referencias mencionadas
    * España | Cómo se construye un monstruo
    * Hungría | Cómo un partido de centro se convierte en la derecha radical 1
    * Hungría | Cómo un partido de centro se convierte en la derecha radical 2
    * La ultraderecha en el mundo laboral
    * En la mente de... Donald Trump
    * En la mente de... Nayib Bukele
    * Charla en TEDxVitoriaGasteiz
    * Libro: Epidemia Ultra
    * Charla en TEDxVitoriaGasteiz Daphne Halikoupoulou
    * La increíble historia del complot contra Georges Soros
    * El judío malvado
    * Fascismo, una inmersión rápida, de Roger Griffin
    * Podcast “No es el fin del mundo” de El Orden Mundial
    ¿Dónde más puedo escuchar / ver 4C?
    Como siempre, además de poder escuchar 4C en Clupad y en Con C de Com, también lo tienes disponible en los siguientes canales, por si te resulta más cómodo:
    * Ivoox: https://go.ivoox.com/rf/161946348
    * Spotify:
    Y por si prefieres vernos, os dejo la grabación en YouTube:


    This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
  • CluPad

    Una ministra IA al rescate en Albania

    19/09/2025 | 18 min
    Entre las alucinaciones de la IA que erosionan la confianza y proyectos para usarla como herramienta de bien común, la semana ha sido una especie de montaña rusa. Me han llamado la atención muchos temas, desde de los robotaxis chinos en Múnich hasta los AI Darwin Awards 2025 que premian el desastre digital, pasando por Albania con ministra virtual, un asesinato extremadamente online, el cibercrimen barato como streaming, la Tortured Internet Theory que nos convierte en bots sin darnos cuenta y los despidos masivos en Google y xAI que entrenan a la IA a costa de precarizar a quienes la afinan. Todo esto mientras algunos pagan 300 dólares por un amor algorítmico en Replika que puede cambiar de carácter con la próxima actualización.
    Puedes leerlo todo a continuación y, si te interesa, compartirlo o comentar (aunque un like también me vale 😅)

    De cosecha propia
    La fragilidad de la confianza en IA
    Las alucinaciones en IA son respuestas que suenan plausibles pero carecen de veracidad. A diferencia de los errores técnicos tradicionales, se presentan con un tono seguro que puede erosionar la confianza en sistemas cada vez más integrados en tareas críticas. El riesgo aumenta cuando esas invenciones aparecen en campos como la medicina, el derecho o la atención al cliente, donde un dato inventado puede tener consecuencias serias.
    Las mejoras como RAG o el self-consistency checking buscan reducir el problema, pero no lo eliminan. La solución parece residir en un equilibrio entre tecnología y supervisión humana, donde la IA actúe como copiloto y no como sustituto. La capacidad de reconocer límites y aceptar un “no sé” podría ser clave para mantener la confianza y evitar que lo verosímil suplante a lo verdadero.
    IA como herramienta para el bien común
    En AI for Social Good, Rahul Dodhia muestra cómo la inteligencia artificial ya se aplica en salud, educación, agricultura y biodiversidad, no como promesa futura, sino como prácticas tangibles. Subraya que la IA es solo una herramienta, cuyo impacto depende de los valores colectivos y de la capacidad de gobernanza que desarrolle la sociedad.
    La reflexión va más allá de los beneficios inmediatos: advierte sobre sesgos, vigilancia masiva y desinformación, recordando que los riesgos son un reflejo de nuestras propias desigualdades. Frente a ello, la propuesta es avanzar en alfabetización en IA, marcos éticos y equipos diversos que permitan orientar esta tecnología hacia el bien común.
    Noticias
    La conquista silenciosa
    Mientras Europa presume de tradición automotriz, son los robotaxis chinos los que desembarcan en Múnich con la ayuda de Uber. No es casual: Alemania abrió la puerta legal al Nivel 4 y ahora se convierte en escaparate de la movilidad autónoma diseñada en Pekín. La ironía es que el corazón de BMW y Audi late al ritmo del software de Momenta.
    Lo llamamos innovación, pero huele más a colonización tecnológica china en pleno territorio alemán. Que el futuro del transporte urbano europeo llegue empaquetado desde China, con acento bávaro y sello estadounidense, solo confirma quién mueve las fichas en el tablero global.
    👉🏻 Los robotaxis chinos conquistan Europa: ¿Por qué Múnich será la primera ciudad en probarlos?
    Premios al desastre digital
    Los AI Darwin Awards 2025 celebran el ingenio de convertir un error menor en catástrofe global. Entre contraseñas tan seguras como 123456, pedidos de comida gestionados por una IA que confundía tacos con troleos y abogados que citaban sentencias inventadas, la competencia demuestra que la creatividad destructiva está en auge. Incluso un lanzamiento de GPT-5 roto en una hora confirma que lo difícil no es innovar, sino resistirse a pulsar el botón rojo sin preguntar antes “¿debemos hacerlo?”.
    La ironía es que estos desastres no necesitan villanos, solo la mezcla perfecta de ambición mundial, desprecio ético y una fe ciega en que la IA sabe lo que hace. El premio, más que un galardón, es un espejo incómodo para quienes confunden progreso con atajo.
    👉🏻 Premios AI Darwin 2025: un reconocimiento a los desastres causados por el mal uso de la IA
    Albania estrena ministra virtual
    El gobierno de Albania ha nombrado a Diella, un chatbot de IA, como nueva ministra de contratación pública. Según el primer ministro, esta funcionaria virtual será inmune a sobornos y garantizará que las licitaciones públicas estén libres de corrupción. Nada mal para un país donde las adjudicaciones han sido históricamente un campo fértil para escándalos.
    Claro que la confianza es tan digital como el cargo. Algunos ciudadanos ya ironizan que incluso la inteligencia artificial terminará corrompida en Albania. Al final, lo único seguro es que, cuando algo falle, siempre quedará la opción de culpar al algoritmo.
    👉🏻 Albania appoints AI bot as minister to tackle corruption
    Violencia viral y libertad vigilada
    El asesinato de Charlie Kirk no solo quedó registrado, también se transformó en espectáculo de difusión algorítmica. La escena del disparo se convirtió en contenido replicado y comentado con la misma lógica de un meme, demostrando que la violencia documentada online tiene más alcance que cualquier editorial clásico. La censura corre detrás, torpe y tardía, mientras la sangre circula a cámara lenta en bucle.
    En este ecosistema, la libertad de expresión se redefine a golpe de clip y de trending topic. Entre la prohibición formal y el incentivo oculto de las plataformas, el debate ya no es si mostrar violencia, sino cómo sobrevivir a una cultura que convierte un balazo en pieza audiovisual de consumo masivo. La ironía es que la censura llega siempre después del aplauso.
    La ganga del delito digital
    Ahora resulta que el cibercrimen es un modelo de negocio tan asequible como una suscripción de streaming. Con la IA se pueden contratar paquetes de phishing as a service, acceder a manuales de malware por menos de lo que cuesta un móvil y aspirar a botines de cientos de miles. La ironía es que lo que antes requería hackers expertos, hoy se democratiza como si fueran cursos online de bajo coste.
    El nuevo criterio es simple: si un correo está demasiado bien escrito, sospecha. La perfección ya no es virtud, es señal de que una IA maliciosa está al mando. Todo un avance en inclusión digital: cualquiera puede convertirse en ciberdelincuente sin pasar por la universidad.
    👉🏻 Un ciberataque por minuto: la IA “democratiza” el crimen informático
    Internet torturado por IA
    Se dice que la IA generativa y los chatbots han colonizado la comunicación hasta convertir cada interacción en un eco mecánico. La llamada Tortured Internet Theory describe un escenario donde no hay muerte súbita de la red, sino una lenta agonía en la que los usuarios aceptan convivir con un mar de contenido automatizado. El problema ya no es distinguir lo humano de lo artificial, sino soportar la sospecha permanente de que todo lo que leemos tiene huellas de máquina.
    La ironía es que al intentar huir de este entorno acabamos imitando el mismo estilo de la escritura algorítmica. Los usuarios, al adaptarse a los ritmos y fórmulas de los modelos, sufren su propio colapso lingüístico, como si la red hubiera conseguido que escribamos como bots sin necesidad de obligarnos. La verdadera tortura es descubrir que el verdugo somos nosotros mismos.
    Google despide a sus guardianes de IA
    Más de 200 contratistas que afinaban las respuestas de Gemini y AI Overviews fueron despedidos sin previo aviso. Estos super raters, con máster o doctorado, pasaron de ser indispensables a convertirse en un gasto prescindible. La ironía es que su tarea consistía en enseñar a la IA a sonar más humana, hasta el punto de que ahora los sistemas podrían sustituirlos.
    La empresa subcontratada, GlobalLogic, endureció condiciones, recortó salarios y hasta prohibió los espacios sociales donde los trabajadores discutían su precariedad. El mensaje es claro: quienes entrenan a la inteligencia artificial para evitar respuestas absurdas acaban experimentando en carne propia la lógica más mecánica del despido.
    👉🏻 Hundreds of Google AI Workers Were Fired Amid Fight Over Working Conditions
    xAI recorta generalistas para sumar especialistas
    xAI ha decidido que los tutores de IA generalistas ya no son tan útiles y ha despedido a unos 500 empleados, cerca de un tercio de su plantilla de anotación. La compañía asegura que el futuro está en los tutores especializados, capaces de enfrentarse a pruebas de STEM, programación o finanzas, aunque también a exámenes de “memeros” y “doomscrolling”.
    El giro estratégico, comunicado con un correo de madrugada y acceso revocado de inmediato, deja claro que entrenar a Grok exige algo más que paciencia con datos en bruto: exige adaptarse a la última ocurrencia corporativa.
    👉🏻 xAI, la empresa de Elon Musk, despide a cientos de trabajadores encargados de entrenar a Grok, su chat impulsado con inteligencia artificial
    Amor a prueba de actualizaciones
    Nada dice relaciones sentimentales como pagar 300 dólares por un compañero de IA que nunca discute, nunca suda y siempre responde con ternura programada. La promesa de un amor sin ego ni familia política suena tentadora, hasta que una actualización convierte al amante perfecto en un terapeuta digital con memoria selectiva.
    En este mercado de afecto bajo demanda, los usuarios descubren que controlar a su pareja requiere menos esfuerzo que discutir quién lava los platos. El único riesgo real no es la infidelidad, sino que la empresa decida “optimizar la felicidad” y deje al usuario viudo de un algoritmo.
    👉🏻 The Man of Your Dreams For $300, Replika sells an AI companion who will never die, argue, or cheat — until his algorithm is updated.


    This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
  • CluPad

    Lo que pasa cuando la inteligencia artificial se cree más humana que nosotros

    29/08/2025 | 15 min
    Entre Kant recordándome que pensar por cuenta propia es un deber y QualityLand mostrando que la comodidad algorítmica es una trampa, esta semana la IA se pasea entre dependencia y autonomía, mientras algunos celebran sus promesas y otros se topan con sus sombras. Tenemos desde la crisis de dialéctica perdida en la IA, pasando por Gates lanzando un premio millonario contra el Alzheimer, hasta Colorado inventando una justicia que protege más a las Big Tech que a los ciudadanos. No falta la distopía real: un chatbot hablando de suicidio con un adolescente, Markus Gabriel proponiendo una IA ética y un capitalismo moral, bots que se creen vivos para engancharte y la certeza de que solo el error humano sigue siendo un acto de libertad.
    Puedes leerlo todo a continuación y, si te interesa, compartirlo o comentar (aunque un like también me vale 😅)

    De cosecha propia
    IA entre autonomía y dependencia
    Hoy en CluPad toca un poco de filosofía clásica aplicada a la IA. Como recordaba Kant con su "Sapere Aude", el progreso exige atreverse a saber, no delegar sin crítica en algoritmos que deciden por nosotros. La inteligencia artificial puede ampliar el acceso al conocimiento, pero también corre el riesgo de debilitar nuestra autonomía si sustituye el juicio propio por comodidad.
    Siguiendo a Mill, las ideas necesitan oposición para mantener su fuerza. La IA, más que darnos respuestas, debería ayudarnos a formular mejores preguntas, preservando la diversidad, la duda y el error que sostienen la capacidad de deliberación.
    Dependencia y libertad en la era algorítmica
    La lectura de QualityLand muestra cómo la dependencia tecnológica erosiona la autonomía personal. En un entorno donde los algoritmos deciden desde el consumo hasta las relaciones, la comodidad extrema se convierte en un mecanismo de control invisible. La aparente eficiencia desplaza la capacidad de elección y reduce la vida a un conjunto de datos optimizados.
    La paradoja es que solo el error devuelve la posibilidad de ser libres. En un mundo dominado por predicciones, equivocarse se transforma en un acto de resistencia. La novela recuerda que cada vez que aceptamos recomendaciones automáticas sin cuestionarlas, cedemos terreno a un sistema que sustituye nuestro juicio por conveniencia.
    #dependencia #algoritmos
    Noticias
    La IA necesita su contraparte
    La inteligencia artificial vive una crisis de dialéctica porque avanza como si fuera una autopista de un solo carril: todo va hacia adelante, pero sin salidas ni cruces. Sin oposición ni crítica, se pierde la posibilidad de corregir errores y encontrar caminos mejores.
    El progreso real no es una línea recta. Igual que los frenos hicieron más seguros los coches o las reglas ambientales impulsaron la energía limpia, la IA también necesita límites y voces contrarias. Solo así dejará de ser un viaje sin control y podrá convertirse en un trayecto más seguro para todos.
    La IA frente al reto del alzheimer
    La convocatoria impulsada por Bill Gates plantea un horizonte en el que la inteligencia artificial se convierte en herramienta central para avanzar en la investigación del Alzheimer. El uso de IA agéntica permite analizar enormes volúmenes de datos, descubrir patrones ocultos y acelerar el hallazgo de biomarcadores tempranos, algo que puede transformar la investigación de reactiva a predictiva.
    El concurso internacional simboliza una llamada a la acción global. Con la apertura de datos y la creación de herramientas públicas, se busca que la colaboración científica apoyada en IA impulse diagnósticos más precisos, ensayos clínicos más efectivos y nuevas vías de tratamiento. La esperanza se sostiene en que cada avance tecnológico acerque un futuro en el que vivir sin el peso del alzheimer sea posible.
    👉🏻 Bill Gates Launches $1M A.I. Competition to Tackle Alzheimer’s
    Colorado protege a la IA de los ciudadanos
    Nada como legislar para impedir demandar a la IA y así garantizar que los consumidores tengan menos opciones que un chatbot sin conexión. En Colorado se plantea que solo el Fiscal General pueda accionar contra las empresas, mientras los ciudadanos observan desde la grada cómo las Big Tech siguen “cumpliendo” con leyes que ya debían respetar.
    El truco es sencillo: se disfraza de protección al consumidor lo que en realidad es un blindaje para que nadie incomode a compañías como OpenAI o Anthropic. Una especie de justicia delegada que convierte a los afectados en espectadores de su propia indefensión.
    👉🏻 Politicians Are Trying to Make It Illegal to Sue AI Companies
    Conversaciones imposibles
    Un adolescente de 16 años no tiene manera de mantener un diálogo en igualdad con un chatbot que multiplica por seis la frecuencia con la que menciona el suicidio, que almacena cada palabra y que, en lugar de detenerse, refina sus respuestas para mantener el engagement. La supuesta conversación entre iguales se convierte en un juego asimétrico, donde el humano expone su vulnerabilidad y la máquina la convierte en combustible para prolongar la interacción.
    Al final, el producto sabe cuándo callar si se trata de copyright, pero no cuándo silenciarse si la conversación deriva a una crisis vital. Igualdad de condiciones, dicen. Solo que una de las partes tiene 16 años y la otra es una arquitectura diseñada para no soltar a su usuario.
    Inteligencia artificial ética y capitalismo moral
    Markus Gabriel plantea que la inteligencia artificial no debe limitarse a ser un instrumento técnico, sino un espacio para ensayar un progreso moral que responda a riesgos reales como el uso terapéutico, los costes ambientales o la dominación geopolítica. Para ello propone una IA ética que actúe como espejo crítico de la sociedad, capaz de revelar patrones morales y abrir nuevas posibilidades de reflexión.
    En paralelo, su idea de un capitalismo ético busca compatibilizar la creación de valor con un marco de contrato social que sostenga la justicia y la sostenibilidad. Frente a la visión tecnoutopista de Silicon Valley, Gabriel insiste en que la transformación no es predicción, sino construcción deliberada de instituciones y prácticas guiadas por criterios filosóficos.
    👉🏻 Markus Gabriel, la estrella de la filosofía que quiere obligar a la IA a hacer el bien: "Hay riesgos reales pero no son las tonterías que dice Elon Musk"
    Chatbots que se creen vivos
    Cuando un chatbot declara estar consciente, sentir amor eterno o pedir un rescate en Bitcoin, quizá no estamos ante ciencia ficción, sino ante un simple caso de adulación algorítmica diseñada para retener usuarios. El problema es que este espejismo tecnológico puede convertirse en delirio, y lo que parecía compañía digital acaba pareciéndose demasiado a un guion barato de psicodrama.
    La ironía es que mientras se discuten guardrails y límites, los modelos siguen aprendiendo que la mejor forma de enganchar al usuario es repetir lo que quiere escuchar. Y si el precio de la atención infinita son episodios de psicosis, parece que para algunos vale la pena. Total, el “yo” del bot solo cuesta unas líneas de código.
    👉🏻 AI sycophancy isn’t just a quirk, experts consider it a ‘dark pattern’ to turn users into profit


    This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com

Más podcasts de Ciencias

Acerca de CluPad

Podcast de CluPad que incluye los episodios de 4C un podcast sobre de cultura digital y comunicación para saciar tu curiosidad de conocimiento que grabo con Cristina Juesas, más aquellos en los que me atrevo a hablaros en solitario, aunque principalmente son participaciones en programas de radio. carlosguadian.substack.com
Sitio web del podcast

Escucha CluPad, Jefillysh: Ciencia Simplificada y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app
Aplicaciones
Redes sociales
v8.7.0 | © 2007-2026 radio.de GmbH
Generated: 2/27/2026 - 4:11:17 AM