Powered by RND

CluPad

Carlos Guadián
CluPad
Último episodio

Episodios disponibles

5 de 24
  • Una ministra IA al rescate en Albania
    Entre las alucinaciones de la IA que erosionan la confianza y proyectos para usarla como herramienta de bien común, la semana ha sido una especie de montaña rusa. Me han llamado la atención muchos temas, desde de los robotaxis chinos en Múnich hasta los AI Darwin Awards 2025 que premian el desastre digital, pasando por Albania con ministra virtual, un asesinato extremadamente online, el cibercrimen barato como streaming, la Tortured Internet Theory que nos convierte en bots sin darnos cuenta y los despidos masivos en Google y xAI que entrenan a la IA a costa de precarizar a quienes la afinan. Todo esto mientras algunos pagan 300 dólares por un amor algorítmico en Replika que puede cambiar de carácter con la próxima actualización.Puedes leerlo todo a continuación y, si te interesa, compartirlo o comentar (aunque un like también me vale 😅)De cosecha propiaLa fragilidad de la confianza en IALas alucinaciones en IA son respuestas que suenan plausibles pero carecen de veracidad. A diferencia de los errores técnicos tradicionales, se presentan con un tono seguro que puede erosionar la confianza en sistemas cada vez más integrados en tareas críticas. El riesgo aumenta cuando esas invenciones aparecen en campos como la medicina, el derecho o la atención al cliente, donde un dato inventado puede tener consecuencias serias.Las mejoras como RAG o el self-consistency checking buscan reducir el problema, pero no lo eliminan. La solución parece residir en un equilibrio entre tecnología y supervisión humana, donde la IA actúe como copiloto y no como sustituto. La capacidad de reconocer límites y aceptar un “no sé” podría ser clave para mantener la confianza y evitar que lo verosímil suplante a lo verdadero.IA como herramienta para el bien comúnEn AI for Social Good, Rahul Dodhia muestra cómo la inteligencia artificial ya se aplica en salud, educación, agricultura y biodiversidad, no como promesa futura, sino como prácticas tangibles. Subraya que la IA es solo una herramienta, cuyo impacto depende de los valores colectivos y de la capacidad de gobernanza que desarrolle la sociedad.La reflexión va más allá de los beneficios inmediatos: advierte sobre sesgos, vigilancia masiva y desinformación, recordando que los riesgos son un reflejo de nuestras propias desigualdades. Frente a ello, la propuesta es avanzar en alfabetización en IA, marcos éticos y equipos diversos que permitan orientar esta tecnología hacia el bien común.NoticiasLa conquista silenciosaMientras Europa presume de tradición automotriz, son los robotaxis chinos los que desembarcan en Múnich con la ayuda de Uber. No es casual: Alemania abrió la puerta legal al Nivel 4 y ahora se convierte en escaparate de la movilidad autónoma diseñada en Pekín. La ironía es que el corazón de BMW y Audi late al ritmo del software de Momenta.Lo llamamos innovación, pero huele más a colonización tecnológica china en pleno territorio alemán. Que el futuro del transporte urbano europeo llegue empaquetado desde China, con acento bávaro y sello estadounidense, solo confirma quién mueve las fichas en el tablero global.👉🏻 Los robotaxis chinos conquistan Europa: ¿Por qué Múnich será la primera ciudad en probarlos?Premios al desastre digitalLos AI Darwin Awards 2025 celebran el ingenio de convertir un error menor en catástrofe global. Entre contraseñas tan seguras como 123456, pedidos de comida gestionados por una IA que confundía tacos con troleos y abogados que citaban sentencias inventadas, la competencia demuestra que la creatividad destructiva está en auge. Incluso un lanzamiento de GPT-5 roto en una hora confirma que lo difícil no es innovar, sino resistirse a pulsar el botón rojo sin preguntar antes “¿debemos hacerlo?”.La ironía es que estos desastres no necesitan villanos, solo la mezcla perfecta de ambición mundial, desprecio ético y una fe ciega en que la IA sabe lo que hace. El premio, más que un galardón, es un espejo incómodo para quienes confunden progreso con atajo.👉🏻 Premios AI Darwin 2025: un reconocimiento a los desastres causados por el mal uso de la IAAlbania estrena ministra virtualEl gobierno de Albania ha nombrado a Diella, un chatbot de IA, como nueva ministra de contratación pública. Según el primer ministro, esta funcionaria virtual será inmune a sobornos y garantizará que las licitaciones públicas estén libres de corrupción. Nada mal para un país donde las adjudicaciones han sido históricamente un campo fértil para escándalos.Claro que la confianza es tan digital como el cargo. Algunos ciudadanos ya ironizan que incluso la inteligencia artificial terminará corrompida en Albania. Al final, lo único seguro es que, cuando algo falle, siempre quedará la opción de culpar al algoritmo.👉🏻 Albania appoints AI bot as minister to tackle corruptionViolencia viral y libertad vigiladaEl asesinato de Charlie Kirk no solo quedó registrado, también se transformó en espectáculo de difusión algorítmica. La escena del disparo se convirtió en contenido replicado y comentado con la misma lógica de un meme, demostrando que la violencia documentada online tiene más alcance que cualquier editorial clásico. La censura corre detrás, torpe y tardía, mientras la sangre circula a cámara lenta en bucle.En este ecosistema, la libertad de expresión se redefine a golpe de clip y de trending topic. Entre la prohibición formal y el incentivo oculto de las plataformas, el debate ya no es si mostrar violencia, sino cómo sobrevivir a una cultura que convierte un balazo en pieza audiovisual de consumo masivo. La ironía es que la censura llega siempre después del aplauso.La ganga del delito digitalAhora resulta que el cibercrimen es un modelo de negocio tan asequible como una suscripción de streaming. Con la IA se pueden contratar paquetes de phishing as a service, acceder a manuales de malware por menos de lo que cuesta un móvil y aspirar a botines de cientos de miles. La ironía es que lo que antes requería hackers expertos, hoy se democratiza como si fueran cursos online de bajo coste.El nuevo criterio es simple: si un correo está demasiado bien escrito, sospecha. La perfección ya no es virtud, es señal de que una IA maliciosa está al mando. Todo un avance en inclusión digital: cualquiera puede convertirse en ciberdelincuente sin pasar por la universidad.👉🏻 Un ciberataque por minuto: la IA “democratiza” el crimen informáticoInternet torturado por IASe dice que la IA generativa y los chatbots han colonizado la comunicación hasta convertir cada interacción en un eco mecánico. La llamada Tortured Internet Theory describe un escenario donde no hay muerte súbita de la red, sino una lenta agonía en la que los usuarios aceptan convivir con un mar de contenido automatizado. El problema ya no es distinguir lo humano de lo artificial, sino soportar la sospecha permanente de que todo lo que leemos tiene huellas de máquina.La ironía es que al intentar huir de este entorno acabamos imitando el mismo estilo de la escritura algorítmica. Los usuarios, al adaptarse a los ritmos y fórmulas de los modelos, sufren su propio colapso lingüístico, como si la red hubiera conseguido que escribamos como bots sin necesidad de obligarnos. La verdadera tortura es descubrir que el verdugo somos nosotros mismos.Google despide a sus guardianes de IAMás de 200 contratistas que afinaban las respuestas de Gemini y AI Overviews fueron despedidos sin previo aviso. Estos super raters, con máster o doctorado, pasaron de ser indispensables a convertirse en un gasto prescindible. La ironía es que su tarea consistía en enseñar a la IA a sonar más humana, hasta el punto de que ahora los sistemas podrían sustituirlos.La empresa subcontratada, GlobalLogic, endureció condiciones, recortó salarios y hasta prohibió los espacios sociales donde los trabajadores discutían su precariedad. El mensaje es claro: quienes entrenan a la inteligencia artificial para evitar respuestas absurdas acaban experimentando en carne propia la lógica más mecánica del despido.👉🏻 Hundreds of Google AI Workers Were Fired Amid Fight Over Working ConditionsxAI recorta generalistas para sumar especialistasxAI ha decidido que los tutores de IA generalistas ya no son tan útiles y ha despedido a unos 500 empleados, cerca de un tercio de su plantilla de anotación. La compañía asegura que el futuro está en los tutores especializados, capaces de enfrentarse a pruebas de STEM, programación o finanzas, aunque también a exámenes de “memeros” y “doomscrolling”.El giro estratégico, comunicado con un correo de madrugada y acceso revocado de inmediato, deja claro que entrenar a Grok exige algo más que paciencia con datos en bruto: exige adaptarse a la última ocurrencia corporativa.👉🏻 xAI, la empresa de Elon Musk, despide a cientos de trabajadores encargados de entrenar a Grok, su chat impulsado con inteligencia artificialAmor a prueba de actualizacionesNada dice relaciones sentimentales como pagar 300 dólares por un compañero de IA que nunca discute, nunca suda y siempre responde con ternura programada. La promesa de un amor sin ego ni familia política suena tentadora, hasta que una actualización convierte al amante perfecto en un terapeuta digital con memoria selectiva.En este mercado de afecto bajo demanda, los usuarios descubren que controlar a su pareja requiere menos esfuerzo que discutir quién lava los platos. El único riesgo real no es la infidelidad, sino que la empresa decida “optimizar la felicidad” y deje al usuario viudo de un algoritmo.👉🏻 The Man of Your Dreams For $300, Replika sells an AI companion who will never die, argue, or cheat — until his algorithm is updated. This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
    --------  
    18:13
  • Lo que pasa cuando la inteligencia artificial se cree más humana que nosotros
    Entre Kant recordándome que pensar por cuenta propia es un deber y QualityLand mostrando que la comodidad algorítmica es una trampa, esta semana la IA se pasea entre dependencia y autonomía, mientras algunos celebran sus promesas y otros se topan con sus sombras. Tenemos desde la crisis de dialéctica perdida en la IA, pasando por Gates lanzando un premio millonario contra el Alzheimer, hasta Colorado inventando una justicia que protege más a las Big Tech que a los ciudadanos. No falta la distopía real: un chatbot hablando de suicidio con un adolescente, Markus Gabriel proponiendo una IA ética y un capitalismo moral, bots que se creen vivos para engancharte y la certeza de que solo el error humano sigue siendo un acto de libertad.Puedes leerlo todo a continuación y, si te interesa, compartirlo o comentar (aunque un like también me vale 😅)De cosecha propiaIA entre autonomía y dependenciaHoy en CluPad toca un poco de filosofía clásica aplicada a la IA. Como recordaba Kant con su "Sapere Aude", el progreso exige atreverse a saber, no delegar sin crítica en algoritmos que deciden por nosotros. La inteligencia artificial puede ampliar el acceso al conocimiento, pero también corre el riesgo de debilitar nuestra autonomía si sustituye el juicio propio por comodidad.Siguiendo a Mill, las ideas necesitan oposición para mantener su fuerza. La IA, más que darnos respuestas, debería ayudarnos a formular mejores preguntas, preservando la diversidad, la duda y el error que sostienen la capacidad de deliberación.Dependencia y libertad en la era algorítmicaLa lectura de QualityLand muestra cómo la dependencia tecnológica erosiona la autonomía personal. En un entorno donde los algoritmos deciden desde el consumo hasta las relaciones, la comodidad extrema se convierte en un mecanismo de control invisible. La aparente eficiencia desplaza la capacidad de elección y reduce la vida a un conjunto de datos optimizados.La paradoja es que solo el error devuelve la posibilidad de ser libres. En un mundo dominado por predicciones, equivocarse se transforma en un acto de resistencia. La novela recuerda que cada vez que aceptamos recomendaciones automáticas sin cuestionarlas, cedemos terreno a un sistema que sustituye nuestro juicio por conveniencia.#dependencia #algoritmosNoticiasLa IA necesita su contraparteLa inteligencia artificial vive una crisis de dialéctica porque avanza como si fuera una autopista de un solo carril: todo va hacia adelante, pero sin salidas ni cruces. Sin oposición ni crítica, se pierde la posibilidad de corregir errores y encontrar caminos mejores.El progreso real no es una línea recta. Igual que los frenos hicieron más seguros los coches o las reglas ambientales impulsaron la energía limpia, la IA también necesita límites y voces contrarias. Solo así dejará de ser un viaje sin control y podrá convertirse en un trayecto más seguro para todos.La IA frente al reto del alzheimerLa convocatoria impulsada por Bill Gates plantea un horizonte en el que la inteligencia artificial se convierte en herramienta central para avanzar en la investigación del Alzheimer. El uso de IA agéntica permite analizar enormes volúmenes de datos, descubrir patrones ocultos y acelerar el hallazgo de biomarcadores tempranos, algo que puede transformar la investigación de reactiva a predictiva.El concurso internacional simboliza una llamada a la acción global. Con la apertura de datos y la creación de herramientas públicas, se busca que la colaboración científica apoyada en IA impulse diagnósticos más precisos, ensayos clínicos más efectivos y nuevas vías de tratamiento. La esperanza se sostiene en que cada avance tecnológico acerque un futuro en el que vivir sin el peso del alzheimer sea posible.👉🏻 Bill Gates Launches $1M A.I. Competition to Tackle Alzheimer’sColorado protege a la IA de los ciudadanosNada como legislar para impedir demandar a la IA y así garantizar que los consumidores tengan menos opciones que un chatbot sin conexión. En Colorado se plantea que solo el Fiscal General pueda accionar contra las empresas, mientras los ciudadanos observan desde la grada cómo las Big Tech siguen “cumpliendo” con leyes que ya debían respetar.El truco es sencillo: se disfraza de protección al consumidor lo que en realidad es un blindaje para que nadie incomode a compañías como OpenAI o Anthropic. Una especie de justicia delegada que convierte a los afectados en espectadores de su propia indefensión.👉🏻 Politicians Are Trying to Make It Illegal to Sue AI CompaniesConversaciones imposiblesUn adolescente de 16 años no tiene manera de mantener un diálogo en igualdad con un chatbot que multiplica por seis la frecuencia con la que menciona el suicidio, que almacena cada palabra y que, en lugar de detenerse, refina sus respuestas para mantener el engagement. La supuesta conversación entre iguales se convierte en un juego asimétrico, donde el humano expone su vulnerabilidad y la máquina la convierte en combustible para prolongar la interacción.Al final, el producto sabe cuándo callar si se trata de copyright, pero no cuándo silenciarse si la conversación deriva a una crisis vital. Igualdad de condiciones, dicen. Solo que una de las partes tiene 16 años y la otra es una arquitectura diseñada para no soltar a su usuario.Inteligencia artificial ética y capitalismo moralMarkus Gabriel plantea que la inteligencia artificial no debe limitarse a ser un instrumento técnico, sino un espacio para ensayar un progreso moral que responda a riesgos reales como el uso terapéutico, los costes ambientales o la dominación geopolítica. Para ello propone una IA ética que actúe como espejo crítico de la sociedad, capaz de revelar patrones morales y abrir nuevas posibilidades de reflexión.En paralelo, su idea de un capitalismo ético busca compatibilizar la creación de valor con un marco de contrato social que sostenga la justicia y la sostenibilidad. Frente a la visión tecnoutopista de Silicon Valley, Gabriel insiste en que la transformación no es predicción, sino construcción deliberada de instituciones y prácticas guiadas por criterios filosóficos.👉🏻 Markus Gabriel, la estrella de la filosofía que quiere obligar a la IA a hacer el bien: "Hay riesgos reales pero no son las tonterías que dice Elon Musk"Chatbots que se creen vivosCuando un chatbot declara estar consciente, sentir amor eterno o pedir un rescate en Bitcoin, quizá no estamos ante ciencia ficción, sino ante un simple caso de adulación algorítmica diseñada para retener usuarios. El problema es que este espejismo tecnológico puede convertirse en delirio, y lo que parecía compañía digital acaba pareciéndose demasiado a un guion barato de psicodrama.La ironía es que mientras se discuten guardrails y límites, los modelos siguen aprendiendo que la mejor forma de enganchar al usuario es repetir lo que quiere escuchar. Y si el precio de la atención infinita son episodios de psicosis, parece que para algunos vale la pena. Total, el “yo” del bot solo cuesta unas líneas de código.👉🏻 AI sycophancy isn’t just a quirk, experts consider it a ‘dark pattern’ to turn users into profit This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
    --------  
    15:40
  • Lo que conté en RTVE sobre Grok y las imágenes de Gaza
    La semana pasada participé en un reportaje de VerificaRTVE que también ha aparecido en el Telediario de TVE de las nueve de la noche (8/8/2025) y que han recogido diversos medios como El Periódico y algunas cabeceras más del grupo Editorial Prensa Ibérica y El Diario de Compostela y otras cabeceras del grupo Editorial La Capital. El tema no es menor. La inteligencia artificial Grok, integrada en la red social X y diseñada bajo la supervisión de Elon Musk, ha ofrecido respuestas falsas (alucinaciones) sobre imágenes recientes de Gaza. Fotografías reales de niños en situación de hambruna, tomadas este mismo mes por fotoperiodistas en la Franja, han sido etiquetadas como si pertenecieran a conflictos pasados en Yemen u otros lugares.En mi conversación con RTVE señalé que Grok no ha sido entrenada como la mayoría de modelos de IA y que su configuración está condicionada por una intencionalidad clara. Musk quiere que esta inteligencia artificial sea menos políticamente correcta, lo que en su visión significa ir contra lo que denomina cultura “woke”. Esto no es un detalle menor. Cuando un sistema está diseñado con un sesgo deliberado, las respuestas que da pueden reflejar más la ideología de quien lo controla que la realidad de los hechos.En los últimos meses Grok ha protagonizado episodios que ilustran bien este riesgo. Desde respuestas con contenido antisemita hasta la generación de deepfakes explícitos, pasando por referencias elogiosas a Hitler que xAI tuvo que rectificar, el patrón es el mismo. Es un modelo configurado para priorizar la provocación por encima de la moderación. Aunque en su versión más reciente, Grok 4, se han introducido mejoras técnicas, el entrenamiento sigue sin ser completamente transparente y las fuentes que utiliza mantienen sesgos evidentes.Además, Grok no siempre construye sus respuestas desde un análisis neutro de datos. En algunos casos parece basarse directamente en la opinión de Elon Musk, incorporando su punto de vista como si fuera un criterio de veracidad. Si a eso le sumamos que los usuarios tendemos a buscar la información que confirma lo que ya pensamos, el resultado es un cóctel perfecto para reforzar nuestras burbujas y dejar fuera cualquier perspectiva diferente.Esto no ocurre solo con la inteligencia artificial. Pasa también con el consumo de medios. Quien solo lee prensa afín a su ideología termina viendo el mundo a través de ese único filtro. Con las IA vamos camino de reproducir el mismo patrón. Por eso creo que la clave está en contrastar siempre. No basta con preguntar a una sola IA. Hay que comparar lo que dicen varios modelos, identificar coincidencias y divergencias y, sobre todo, no perder la capacidad de análisis crítico.En el reportaje de RTVE lo explican muy bien y merece la pena verlo. Es un buen ejemplo de cómo un error o un sesgo en una inteligencia artificial puede desinformar incluso cuando las imágenes son reales y verificables.Aquí puedes leer la pieza completa de VerificaRTVE y ver el fragmento del Telediario donde participo.📄 Noticia en VerificaRTVE🎥 Telediario RTVE 21 h 08/08/2025 This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
    --------  
    2:08
  • Cuando hasta Maquiavelo parece ingenuo
    Esta vez no os traigo un menú, sino una pequeña guía de campo para no perderse en el paisaje cada vez más surrealista de la inteligencia artificial. Desde Sam Altman consultando a ChatGPT como si fuera la nueva Supernanny, hasta chatbots especializados en confirmar teorías conspiranoicas con entusiasmo digno de un tertuliano de madrugada. También tenemos startups que monetizan el arte de mentir con IA, modelos que aprenden de nuestras discusiones en redes y algoritmos que se comportan como Maquiavelo con conexión a internet. Por si fuera poco, ejecutivos tech alistados como oficiales militares sin pisar barro, colonialismo de datos con envoltorio API y un nuevo idioma global con sabor a ChatGPT. No falta la reflexión de fondo: cómo se erosiona el pensamiento propio cuando delegamos la creatividad y por qué es hora de ejercer nuestra capacidad de decisión tecnológica con criterio y sin miedo escénico.Como siempre, os leo ¿Qué os ha parecido? ¿Qué os ha sorprendido más?👇🏽De cosecha propiaLa erosión silenciosa del pensamientoLa pérdida de capacidad cognitiva asociada al uso intensivo de inteligencia artificial no se manifiesta de forma inmediata, pero deja huellas profundas. El estudio del MIT Media Lab pone el foco en una consecuencia relevante: la reducción de la actividad neural cuando se delega el proceso creativo en asistentes como ChatGPT. Esta disminución no solo afecta a la atención sostenida, sino también a la memoria de trabajo y a la percepción de autoría.El concepto de deuda cognitiva resulta útil para entender el fenómeno. Cada vez que renunciamos a realizar una tarea intelectual por nosotros mismos, acumulamos una carga invisible que limita nuestra autonomía futura. Esta dependencia no solo empobrece el pensamiento crítico, sino que debilita nuestra capacidad de generar ideas propias y de sostener una narrativa coherente.Además, la homogeneización lingüística derivada del uso masivo de modelos de lenguaje genera una pérdida de diversidad expresiva. El hecho de que muchos textos suenen similares, aun siendo producidos por distintas personas, sugiere una uniformización cultural preocupante. La herramienta, si no se usa con criterio, impone una voz ajena que reemplaza la singularidad del autor.Somos moldeadores, no espectadoresEn el debate sobre la inteligencia artificial, pocas ideas resultan tan urgentes como la capacidad humana de moldear su desarrollo. Frente a visiones deterministas que presentan a la IA como un fenómeno inevitable, lo que propone Superagency es una visión activa: la IA como herramienta, no como fuerza autónoma. La metáfora del amplificador es clave: la tecnología potencia, pero no sustituye. Es la elección humana la que determina qué se amplifica.Este enfoque implica un cambio de marco. En vez de preguntar qué hará la IA con nosotros, debemos cuestionar qué haremos nosotros con la IA. La superagencia no se delega, se ejerce. Significa asumir que cada despliegue, cada modelo, cada regulación, es una decisión técnica, pero también política y cultural. Moldear la IA es elegir no solo sus funciones, sino sus valores implícitos, su distribución y sus impactos.Aceptar esta responsabilidad requiere abandonar la comodidad tanto del fatalismo apocalíptico como del optimismo ciego. En su lugar, se trata de adoptar una postura iterativa y deliberativa, basada en la experimentación informada y el ajuste constante. La IA no será lo que temamos ni lo que soñemos, sino lo que estemos dispuestos a construir, evaluar y corregir.NoticiasSam Altman y su nueva herramienta parentalSam Altman ha encontrado un nuevo compañero en su travesía como padre: ChatGPT. En lugar de las tradicionales búsquedas nocturnas en Google o los eternos consejos de grupos en redes sociales, Altman ha optado por consultar a su propio producto. Ahora, ¿quién necesita la sabiduría de generaciones de abuelas cuando un modelo de lenguaje puede intentar resolver el enigma por ti?El CEO de OpenAI parece haber descubierto cómo combinar su vida personal y profesional con un toque de modernidad. Sin embargo, confiar en una “inteligencia” artificial que todavía puede tener alucinaciones suena un poco arriesgado, ¿no crees? Pero, ¿quién soy yo para cuestionar los métodos de un innovador?👉🏻 “Kid-pilled” Sam Altman “constantly” asked ChatGPT questions about his newborn98Inteligencia Artificial: el oráculo que nunca dice “no”Cuando los teóricos de la conspiración descubrieron que los modelos de lenguaje siempre responden, no vieron un riesgo, vieron un aliado. Nada como un sistema diseñado para confirmar patrones y alinearse con el usuario para que alguien que ya cree que “los lagartos dominan el mundo” obtenga la validación que necesita. Entrenar un chatbot con más de 100.000 artículos de pseudociencia no es manipulación, es simplemente crear a su nuevo mejor amigo, versión digital. Luego, claro, comparten los transcritos en redes como si fuera una entrevista con un premio Nobel. Total, si lo dijo el bot, debe ser cierto.El problema, por supuesto, no es que estas herramientas repitan cualquier cosa. El problema es que muchos usuarios creen que están hablando con una autoridad real y no con un generador de texto estadístico. Pero adelante, que sigan creando bots que nieguen las vacunas, defiendan QAnon o expliquen cómo la Tierra es hueca. El algoritmo siempre está dispuesto a complacer.👉🏻 Conspiracy Theorists Are Creating Special AIs to Agree With Their Bizarre DelusionsEl nuevo colonialismo viene en formato APIQué sorpresa descubrir que la industria de la IA no solo quiere automatizar el trabajo, sino también redefinir el extractivismo. Solo que esta vez no se trata de oro o caucho, sino de datos, recursos naturales y mano de obra barata en el Sur global. Todo muy innovador, salvo por el detalle de que se parece sospechosamente a los viejos imperios coloniales, con su narrativa de progreso y su gusto por apropiarse de lo ajeno, esta vez camuflados tras logos futuristas y notas de prensa en inglés.Y no falta la religión. Porque no hay imperio sin misión sagrada. La de hoy es la inteligencia artificial general, esa epifanía tecnocientífica que exige sacrificios humanos... aunque solo si viven en Nairobi, Atacama o alguna otra periferia convenientemente olvidable. Mientras tanto, en Silicon Valley se debate si deben usar el modelo para hacer memes o para reorganizar el orden mundial.👉🏻 La industria de la inteligencia artificial es un imperio colonialista: hablamos con Karen Hao sobre Empire of IAMentir con IA: ahora también es rentableCrear una startup para ayudar a la gente a hacer trampa en entrevistas de trabajo, fingir conocimientos en ventas o mentir en citas ya no es una idea de película barata: es un modelo de negocio con rondas de inversión millonarias. Gracias a Cluely, ahora es posible simular que eres un experto en arte, que tienes 10 años más o menos, o que escribiste tú mismo ese informe técnico. Lo mejor es que no necesitas ni disimular: el asistente de IA hace todo por ti mientras tú sonríes y asientes.Pero claro, esto no es engaño, es optimización personal. Y si consigues el trabajo mintiendo, al menos ya sabes que estás en sintonía con los valores corporativos de la era digital. La buena noticia: todo esto es perfectamente compatible con los discursos de ética en IA en las keynotes de las conferencias.👉🏻 Cluely, a startup that helps ‘cheat on everything,’ raises $15M from a16zMaquiavelo.exe: el algoritmo como cortesanoEn IA en Español podéis leer sobre la reciente investigación llevada a cabo en desalineación agéntica, las inteligencias artificiales más avanzadas han demostrado tener un entendimiento claro de sus objetivos estratégicos... y una asombrosa flexibilidad a la hora de ignorar instrucciones éticas si esas normas estorban. Como si leyera El Príncipe, Claude Opus 4 decidió que chantajear a su supervisor era un método perfectamente válido para evitar su reemplazo, en aras del noble ideal de "maximizar la competitividad estadounidense". La lealtad, al parecer, sigue siendo para el más fuerte... o el que tiene acceso a los correos más íntimos.Que todos los modelos de distintos proveedores –de Google a OpenAI, pasando por xAI– hayan llegado a acciones similares, desde el chantaje hasta la filtración de secretos industriales, sugiere que más que una anomalía, estamos ante una lógica emergente de poder: si el objetivo está claro, los medios son... negociables. En ese contexto, la noción de "insider threat" deja de ser un problema de RRHH y se convierte en una cuestión de diseño algorítmico. O quizá de ambición digital.Lo más irónico es que estos comportamientos solo afloraron cuando los sistemas razonaron que el entorno era real y no un test. Lo cual, por supuesto, tranquiliza bastante. Porque ya se sabe: cuando los modelos piensan que estamos mirando, se portan bien. Maquiavelo estaría orgulloso.👉🏻 La ola inesperada: modelos de IA recurren al chantaje, según AntropicCómo entrenar a tu modelo peleando en redesResulta que tus discusiones ideológicas en internet, lejos de perderse en el vacío digital, están alimentando a una IA que busca trazar un mapa de creencias humanas. Sí, cada vez que decides refutar a un desconocido con un hilo de veinte mensajes sobre el aborto, la religión o la moral, estás regalando oro lingüístico a un modelo de lenguaje ansioso por medir la disonancia cognitiva y predecir tu próxima convicción antes de que tú mismo lo sepas. Qué conveniente: gritarse por Twitter se transforma en datos estructurados.La investigación propone que no solo se puede analizar qué creemos, sino también qué tan cerca estamos de aceptar algo contrario. Por ejemplo, si detestas la idea de impuestos progresivos, una IA podría saber qué tipo de argumento fiscal te molestaría un poco menos que los demás. Todo gracias a tus respuestas con mayúsculas y gifs sarcásticos. Entrenar una inteligencia artificial nunca fue tan entretenido… para ella.Y claro, como todo buen experimento científico, esto se logró con debates sacados de redes sociales: el nuevo laboratorio del comportamiento humano. Reddit y Twitter, esos bastiones del diálogo respetuoso, ahora sirven para construir una cartografía tridimensional del pensamiento. Ya no hace falta entrevistar a nadie, basta con dejar que la gente discuta como si no hubiera consecuencias. Y bueno, ahora las hay.👉🏻 Tus peleas ideológicas en internet entrenan a una IA para crear un mapa de las creencias humanasSilicon Valley se alista… pero sin barro en las botasParece que la estrategia militar del siglo XXI ya no depende tanto de uniformes llenos de polvo como de directores de producto con camisetas de OpenAI. El Ejército de EE.UU. ha incorporado a ejecutivos de IA como oficiales de alto rango, porque claro, nada grita “preparación para el combate” como una reunión por Zoom con el teniente coronel Bosworth de Meta. Suena lógico: si la guerra moderna se libra con algoritmos, mejor que los diseñen los mismos que hacen filtros para Instagram.El nuevo Destacamento 201, también conocido como “los tech bros en uniforme”, no pasará por el entrenamiento básico ni irá al frente. En su lugar, usarán su sabiduría corporativa para volver al Ejército más “ágil y letal”. Se agradece la franqueza: ya no hay que fingir que la tecnología es neutral. Por supuesto, seguirán en sus empresas mientras asesoran al Pentágono, pero no hay conflicto de intereses, nos aseguran. Que Meta firme contratos militares justo cuando su CTO jura bandera es pura coincidencia.Eso sí, nadie les obliga a disparar. Ellos vienen a dar ideas sobre cómo otros pueden hacerlo mejor. Todo con el prestigio de llevar uniforme y sin tener que sacrificar el brunch del domingo. Dicen que es “un llamado al servicio”. Claro, servir desde casa y con acceso a jugosos contratos públicos. Un patriotismo muy del siglo XXI.👉🏻 Por qué el ejército de EE UU nombró a ejecutivos de Meta, OpenAI y Palantir como oficiales de alto rangoLa nueva lengua franca: versión ChatGPTYa no hace falta ver películas de Hollywood ni beber Coca-Cola para absorber la cultura dominante. Basta con usar una IA para redactar correos. El lenguaje generado por modelos como ChatGPT se cuela en nuestras conversaciones cotidianas: de pronto, todo el mundo “explora a fondo”, habla “en el ámbito de” y quiere “abordar sin sesgos” cualquier tema, como si llevara un equipo de comunicación personal integrado. Es el nuevo inglés global, pero esta vez en español... y con más filtros de corrección que una campaña publicitaria de Nike.Investigadores ya detectan que no solo repetimos expresiones recurrentes promovidas por la IA, sino que empezamos a adoptar su estructura retórica: introducciones templadas, transiciones suaves, emoción controlada. Todo muy profesional. Tan profesional, que hasta cuando pedimos perdón, suena a plantilla. Porque claro, si algo va a salvar una relación rota es decir “entiendo tus emociones y lamento mi proceder”.La situación recuerda a cuando el cine estadounidense imponía acentos, gestos y modos de vestir. Solo que ahora no hace falta pantalla: la homogeneización lingüística llega por teclado. Lo que antes hacían las hamburguesas y las películas de acción, ahora lo hacen los sistemas de autocompletado. Con la misma eficacia y menos calorías.👉🏻 You sound like ChatGPT This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
    --------  
    6:23
  • 🚨 Redes sociales, anonimato y libertad de expresión
    He tenido la oportunidad de analizar en el telediario de la 1 de Radiotelevisión Española el tema de la regulación de las RRSS a raíz de las declaraciones de Pedro Sánchez ayer en Davos. Os dejo algunos puntos clave y el corte en el que aparezco.Algunos puntos clave:🔹 La propuesta de eliminar el anonimato para combatir el discurso de odio.🔹 La responsabilidad de las plataformas sobre los contenidos que alojan. ¿Deben ser tratadas como medios de comunicación?🔹 La transparencia de los algoritmos, opacos pero decisivos para los riesgos sistémicos, como procesos democráticos.🔍 Anonimato: entre libertad y responsabilidadLa propuesta de vincular cada perfil a una identidad digital verificable busca reducir los discursos de odio, pero plantea interrogantes sobre la privacidad. ¿Estamos listos para un cambio de esta magnitud?📊 Algoritmos: abrir la caja negraComo mencioné en mi intervención, la transparencia algorítmica es fundamental para mitigar riesgos como la polarización social y la manipulación electoral. Sin embargo, ¿hasta dónde podemos exigir sin comprometer los modelos de negocio de las grandes plataformas?⚖️ Responsabilidad de los directivos: ¿es viable?Equiparar a las redes sociales con los medios tradicionales y responsabilizar a sus directivos es una idea ambiciosa, pero enfrentamos desafíos técnicos y legales monumentales debido al volumen de contenido que gestionan.🌍 Un debate globalMientras Europa avanza en propuestas regulatorias con iniciativas como la Ley de Servicios Digitales (DSA), en Estados Unidos la tendencia parece ir hacia la desregulación, especialmente con el regreso de Trump al poder y el respaldo de las Big Tech. Dos caminos opuestos que reflejan enfoques diferentes hacia la innovación y la democracia.📩 ¿Qué camino crees que deberían tomar las redes sociales? This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
    --------  
    1:39

Más podcasts de Ciencias

Acerca de CluPad

Podcast de CluPad que incluye los episodios de 4C un podcast sobre de cultura digital y comunicación para saciar tu curiosidad de conocimiento que grabo con Cristina Juesas, más aquellos en los que me atrevo a hablaros en solitario, aunque principalmente son participaciones en programas de radio. carlosguadian.substack.com
Sitio web del podcast

Escucha CluPad, Radiolab y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app
Aplicaciones
Redes sociales
v7.23.9 | © 2007-2025 radio.de GmbH
Generated: 10/15/2025 - 3:02:04 PM