PodcastsNoticiasFLASH DIARIO de El Siglo 21 es Hoy

FLASH DIARIO de El Siglo 21 es Hoy

@LocutorCo
FLASH DIARIO de El Siglo 21 es Hoy
Último episodio

776 episodios

  • FLASH DIARIO de El Siglo 21 es Hoy

    IA traza ruta en Marte

    02/2/2026 | 12 min
    NASA y Anthropic probaron Claude para planear rutas del rover Perseverance en Marte.

    Por Félix Riaño @LocutorCo

    En Marte, manejar un rover no se parece a jugar con un control. La señal tarda varios minutos en ir y volver entre la Tierra y Marte, así que nadie puede “conducir en vivo”. Por eso, el equipo de la NASA prepara cada recorrido con antelación, como si dibujara un camino con migas de pan: una lista de puntos, llamados “waypoints”, que el rover va siguiendo.Ahora pasó algo nuevo: la NASA y el equipo del Laboratorio de Propulsión a Chorro, el JPL, usaron un modelo de inteligencia artificial de Anthropic, llamado Claude, para proponer ese camino antes de enviarlo. Y no fue una prueba de juguete: Perseverance recibió esas instrucciones y avanzó en el cráter Jezero, en dos recorridos hechos el 8 y el 10 de diciembre de 2025.La pregunta que queda flotando es directa: si una IA ayuda a planear rutas en Marte, ¿qué otras tareas lentas y delicadas va a empezar a asumir en misiones espaciales?

    La IA dibuja el camino, pero humanos revisan cada paso.

    Vamos a ubicar la escena. Perseverance es un rover de seis ruedas, del tamaño de un carro pequeño, que explora el cráter Jezero desde febrero de 2021. Su meta grande es científica: estudiar rocas, buscar pistas sobre el pasado de Marte y guardar muestras para que, algún día, puedan llegar a la Tierra. Para lograr eso, Perseverance tiene que moverse por terrenos difíciles: piedras sueltas, campos de rocas, ondulaciones de arena, y pendientes que pueden hacer que las ruedas patinen.En la Tierra, el equipo del JPL suele mirar imágenes tomadas desde órbita y también fotos del propio rover. Con eso marcan una ruta segura y escriben comandos que se envían a Marte. En esta prueba, una IA con capacidad de “ver” analizó imágenes de alta resolución de la cámara HiRISE, que va a bordo del orbitador Mars Reconnaissance Orbiter. Además, usó modelos digitales de elevación, que son mapas en 3D del terreno para medir pendientes.Con esa información, la IA propuso un camino continuo, con waypoints. Después, los ingenieros pasaron esas instrucciones por un “gemelo digital”, una simulación del rover, para comprobar más de quinientas mil variables de telemetría. Ahí revisan cosas como posición estimada, riesgos de obstáculos y límites del software de vuelo.

    Ahora vamos al problema de fondo: planear rutas consume tiempo humano. Y en misiones espaciales, el tiempo es oro, porque cada sol —cada día marciano— tiene ventanas de trabajo limitadas. Si el equipo se queda horas dibujando un trayecto, queda menos espacio para decidir qué roca analizar, qué muestra guardar, o qué experimento hacer.También hay un riesgo que asusta a cualquier ingeniero: que el rover quede atrapado. La historia de Marte ya tiene cicatrices. Spirit, un rover anterior de la NASA, quedó atascado en arena en 2009 y no volvió a moverse. Nadie quiere repetir eso con un vehículo que vale muchísimo dinero y años de trabajo. Por eso, aunque suene tentador delegar a una IA, el listón de seguridad es altísimo.Y aquí aparece otra tensión: una IA puede proponer un camino “lógico” según las imágenes de arriba, pero puede no ver detalles del suelo que sí revelan las cámaras a ras de terreno. En esta prueba, el equipo humano tuvo acceso a imágenes del suelo que la IA no había usado al planear, y por eso ajustó pequeños tramos.

    Vamos con lo que pasó, paso a paso, para que se entienda sin tecnicismos raros. El 8 de diciembre de 2025, Perseverance hizo un recorrido de doscientos diez metros usando waypoints propuestos por IA. Dos días después, el 10 de diciembre, avanzó doscientos cuarenta y seis metros con el mismo enfoque. Sumados, son cuatrocientos cincuenta y seis metros en esos dos recorridos. En varias notas periodísticas se resume como “alrededor de cuatrocientos metros” porque se habla del tramo de la demostración como un bloque.Pero Perseverance no es un carro que sigue una línea pintada. El rover tiene un sistema llamado AutoNav, que toma decisiones en tiempo real mientras avanza. AutoNav puede ajustar el trayecto para rodear una piedra o evitar una zona fea, incluso si el camino predefinido decía otra cosa. Por eso, cuando la NASA mostró la comparación entre la ruta planeada y la ruta real, se ven diferencias pequeñas: la idea general se mantiene, pero el rover corrige al vuelo.Lo más interesante es el método de trabajo. La IA no “mandó” el rover sola. Propuso la ruta con waypoints y comandos, y el equipo humano revisó, simuló y retocó antes de enviar. Ese es el punto: automatización con supervisión fuerte. Según lo reportado, el equipo estima que este tipo de apoyo puede reducir a la mitad el tiempo de planeación de rutas. Eso no significa menos cuidado. Significa que la parte repetitiva puede tomar menos horas, y el equipo puede dedicar más energía al análisis científico.

    Vamos a ampliar el contexto para que esta noticia tenga más sentido. Primero, hablemos de por qué HiRISE importa. Esa cámara, en órbita, toma imágenes de gran detalle de la superficie marciana. Con esas fotos, los equipos pueden ver patrones de terreno y detectar zonas peligrosas. Si a eso le sumas modelos digitales de elevación, ya no es solo “ver una foto”: es medir pendientes y entender si el rover va a quedar inclinado o si una rueda puede perder tracción.Segundo, hay un detalle de “lenguaje” que suena raro, pero es útil: la NASA usa formatos específicos para mandar comandos. En este caso se menciona Rover Markup Language, o RML, un lenguaje basado en XML. En internet, los modelos públicos pueden no mostrar ejemplos de ese lenguaje, porque no hay un estándar ampliamente publicado. Pero dentro del entorno de trabajo, con datos y herramientas internas, la IA sí pudo generar instrucciones que luego se verificaron. Ese contraste es una enseñanza: el mismo modelo puede comportarse distinto según el acceso a información, a formatos y a herramientas.Tercero, esto conecta con una tendencia mayor en robótica: modelos visión-lenguaje-acción. En palabras simples: sistemas que ven, describen lo que ven y luego actúan. En la Tierra ya se usan en fábricas y laboratorios. En el espacio, el premio es enorme porque la distancia obliga a que los robots sean más autónomos. Si una sonda está lejos, la latencia hace que esperar instrucciones sea lento. Por eso la NASA habla de un futuro donde estas técnicas ayuden a recorridos de kilómetros, y también a detectar “cosas interesantes” para ciencia, revisando montañas de imágenes.Y un dato extra para aterrizar la escala: Perseverance lleva años recorriendo Marte y ya se acerca a distancias acumuladas que, para un robot en otro planeta, son una hazaña de ingeniería. Esa experiencia de manejo, sumada a AutoNav, crea el escenario perfecto para probar IA en la parte de planeación. No es un salto al vacío. Es un paso medido, con frenos, simulación y revisión humana.

    La NASA ya probó rutas planeadas por IA para Perseverance en Marte, con revisión humana y simulación antes de enviar comandos. El rover avanzó en diciembre de 2025 y AutoNav ajustó detalles en marcha. Esto puede ahorrar tiempo de planeación y abrir espacio para más ciencia. Cuéntame: ¿te da confianza esta idea? Sigue Flash Diario en Spotify.

    Bibliografia:The Register
    NASA Jet Propulsion Laboratory
    NASA
    Engadget
    Anthropic
    NASA Science
    NASAWATCH
    IFLScience

    Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
  • FLASH DIARIO de El Siglo 21 es Hoy

    El plan secreto de Apple para hablar sin voz

    30/1/2026 | 13 min
    Apple compra Q.ai por hasta dos mil millones y apuesta por IA silenciosa para Siri y AirPods

    Por Félix Riaño @LocutorCo

    Apple acaba de hacer una de las compras más grandes de su historia reciente y casi nadie lo vio venir. La empresa de la manzana adquirió la startup israelí Q.ai, una compañía que llevaba más de tres años trabajando en silencio, sin mostrar productos y sin hacer ruido mediático. El valor estimado del acuerdo ronda entre mil quinientos y dos mil millones de dólares, una cifra que la convierte en la segunda adquisición más costosa de Apple, solo por detrás de Beats en dos mil catorce.Q.ai se dedica a algo muy particular: enseñar a las máquinas a entendernos sin que tengamos que hablar en voz alta. Su tecnología combina aprendizaje automático, análisis de audio y seguimiento de movimientos faciales. Apple no ha explicado aún dónde va a usar estas ideas, pero las pistas apuntan a Siri, a los AirPods y a los visores de realidad mixta.

    Una compra tecnológica que abre posibilidades… y también dudas razonables.

    Q.ai nació en dos mil veintidós, fundada por Aviad Maizels, Yonatan Wexler y el doctor Avi Barliya. Desde el inicio decidieron trabajar en modo sigiloso. Nada de presentaciones públicas, nada de demos abiertas. La idea era desarrollar una tecnología capaz de interpretar la comunicación humana más allá de la voz tradicional.Los inversionistas que apostaron temprano por Q.ai sabían que no era un proyecto sencillo. Fondos como GV, Kleiner Perkins y Spark acompañaron el proceso con paciencia y con dinero suficiente para investigar a fondo. Para ellos, el valor no estaba en lanzar rápido un producto, sino en resolver un problema profundo: cómo lograr que los dispositivos entiendan a las personas en entornos reales, con ruido, con distracciones y con limitaciones sociales.Apple observó ese trabajo durante años. Ahora decide integrar al equipo completo y llevar esa investigación directamente a sus productos, desde audífonos hasta sistemas de inteligencia artificial personal.

    Hablar con asistentes de voz sigue siendo incómodo para muchas personas. En una casa compartida, en una oficina, en el transporte público o en una cafetería, usar la voz en alto genera incomodidad. Por eso, aunque la inteligencia artificial avanza rápido, la mayoría de usuarios termina escribiendo en pantallas pequeñas.Q.ai se enfocó justo en ese bloqueo cotidiano. Según patentes analizadas por medios tecnológicos, su sistema usa sensores ópticos para detectar micro movimientos en labios, mejillas y mandíbula. Esos movimientos se traducen en palabras o comandos, incluso cuando el sonido es mínimo o casi inexistente.El desafío técnico es enorme. La cara humana se mueve de forma distinta en cada persona, cambia con la luz, con la barba, con gafas o con el cansancio. Lograr precisión en ese contexto exige modelos complejos, entrenamiento largo y mucha prueba y error. A eso se sumó un contexto social duro: cerca del treinta por ciento del equipo fue llamado al servicio militar en Israel durante dos mil veintitrés, lo que interrumpió rutinas y obligó a trabajar bajo presión constante.

    Apple decide comprar Q.ai justo cuando su estrategia de inteligencia artificial necesita un impulso. Siri ha tenido retrasos y comparaciones incómodas frente a otros asistentes. Integrar una tecnología que permita hablar en susurros, o incluso sin sonido, cambia las reglas del juego.Los analistas creen que esta tecnología puede llegar primero a los AirPods, combinando micrófonos, sensores y algoritmos para entender al usuario en medio del ruido. También se menciona su posible uso en el Vision Pro, donde la interacción silenciosa resulta casi obligatoria.Aviad Maizels ya conoce este camino. En dos mil trece vendió PrimeSense a Apple, una compra que terminó dando vida al Face ID. Hoy repite la historia con una tecnología aún más invisible. Apple, por su parte, apuesta por una idea sencilla: que la computación se adapte a nosotros, y no al revés.

    El tamaño de la compra dice mucho. Beats costó tres mil millones de dólares y cambió el negocio de audio de Apple. Q.ai, con una cifra cercana a los dos mil millones, apunta a cambiar la forma de interactuar con la inteligencia artificial. No se trata de un modelo de lenguaje nuevo, sino de una nueva interfaz humana.Medios como TechCrunch y CNBC explican que Q.ai también trabaja en mejorar el reconocimiento de voz en ambientes difíciles, como calles concurridas o espacios cerrados con eco. Esto encaja con la evolución de Siri y con la estrategia de Apple Intelligence.También hay debate interno. Parte de la fuerza laboral de Apple ha pedido revisar su relación con Israel. La empresa sabe que integrar este equipo traerá conversaciones complejas, tanto técnicas como éticas. Aun así, la decisión está tomada: Apple prefiere comprar talento y conocimiento antes que empezar desde cero.

    Apple compra Q.ai y apuesta por una inteligencia artificial que entiende susurros y gestos faciales. La promesa es usar la tecnología sin hablar en voz alta. El impacto puede sentirse en AirPods, Siri y futuros dispositivos. ¿Te gustaría interactuar con IA de forma silenciosa? Cuéntanos qué piensas y sigue Flash Diario en Spotify.

     Bibliografía
    CTech – Calcalist Tech
    9to5Mac
    PhoneArena
    CNBC
    TechCrunch

    Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
  • FLASH DIARIO de El Siglo 21 es Hoy

    Chrome ya navega solo

    29/1/2026 | 11 min
    Google navega por tiGoogle integra Auto Browse en Chrome para delegar tareas web a la inteligencia artificial Gemini

    Por Félix Riaño @LocutorCo

    Google transforma Chrome en un navegador asistido por IA que ejecuta tareas reales por el usuario.

    Google está dando un paso que cambia la forma en que usamos internet todos los días. El navegador Chrome, que millones de personas abren cada mañana, ahora puede navegar solo. La nueva función se llama Auto Browse y pone a la inteligencia artificial de Gemini a manejar el navegador como si fuera una persona. Buscar productos, comparar precios, revisar correos antiguos, organizar viajes o preparar formularios ya no depende solo del usuario. Chrome puede hacerlo por encargo.
    La promesa es clara: menos clics, menos pestañas abiertas y menos tiempo frente a la pantalla. Pero también aparecen preguntas grandes. ¿Hasta dónde conviene delegar el control del navegador? ¿Qué riesgos tiene dejar que una IA actúe en nuestro nombre? Y, sobre todo, ¿quién responde si algo sale mal?Punto de giro narrativoDelegar navegación ahorra tiempo, pero traslada el control a la máquina.

    Auto Browse es una función integrada en Chrome que permite pedirle a Gemini que complete tareas complejas en la web. No se trata de responder preguntas ni resumir páginas. Aquí la IA hace clics reales, abre pestañas, revisa historiales y avanza paso a paso dentro de sitios web.
    Google mostró ejemplos muy concretos. Reordenar una chaqueta comprada el año pasado. Buscar un cupón de descuento antes de pagar. Revisar apartamentos guardados y descartar los que no aceptan mascotas. Comparar vuelos en distintas fechas.
    Todo ocurre dentro de Chrome, usando una nueva barra lateral que mantiene a Gemini visible mientras el usuario sigue navegando. La IA puede trabajar en segundo plano mientras tú haces otra cosa. Esa es la apuesta: convertir al navegador en un asistente activo, no en una simple ventana al internet.

    El problema aparece cuando esa ayuda empieza a tomar decisiones. Auto Browse puede iniciar sesiones, recorrer tiendas y preparar compras, pero Google deja algo muy claro: el usuario sigue siendo responsable de cada acción. En la versión de prueba hay un aviso directo. “Usa Gemini con cuidado y toma el control si es necesario”.
    Esto no es solo un detalle legal. Los sistemas de navegación automática pueden ser engañados por sitios maliciosos mediante técnicas conocidas como inyección de instrucciones. Una página puede intentar convencer a la IA de hacer algo distinto a lo que pidió el usuario.
    Por ahora, Google pone límites. Las acciones sensibles, como pagar con tarjeta o publicar en redes sociales, requieren aprobación humana. La IA se detiene, explica qué hizo y pregunta si puede seguir. Aun así, el debate está abierto. Más automatización implica más superficie de riesgo.

    Google no está sola en esta carrera. OpenAI lanzó su propio navegador, Atlas, diseñado desde cero alrededor de la inteligencia artificial. Perplexity tiene Comet. Opera y otros navegadores ya integran agentes similares. Chrome responde integrando estas funciones sin obligar al usuario a cambiar de herramienta.
    Auto Browse está disponible desde ahora en Estados Unidos para quienes pagan los planes AI Pro y AI Ultra de Google. No hay fecha confirmada para otros países ni para usuarios gratuitos. Google suele desplegar estas funciones de forma gradual, así que la expansión es muy probable.
    La visión de fondo es ambiciosa. Demis Hassabis, director de Google DeepMind, habla de un asistente universal capaz de planear y actuar en nombre del usuario en cualquier dispositivo. Chrome es una pieza central de ese plan. La navegación deja de ser manual y pasa a ser delegada.

    Este movimiento también tiene un contexto legal y estratégico. Google reforzó Chrome con inteligencia artificial luego de que un juez federal en Estados Unidos rechazara obligar a la empresa a vender el navegador por su dominio en el mercado de búsqueda. El argumento fue que la inteligencia artificial ya está cambiando el panorama competitivo.
    Además de Auto Browse, Chrome integra Nano Banana, una herramienta de generación y edición de imágenes que funciona directamente en el navegador. También suma la función Personal Intelligence, que conecta datos de Gmail, Calendario, Fotos, YouTube y Búsqueda para dar respuestas personalizadas.
    Todo funciona con el modelo Gemini 3. Parte del procesamiento ocurre en el dispositivo, pero los datos también viajan a la nube. Google afirma que el usuario puede decidir qué aplicaciones se conectan y cuándo. La personalización es opcional, pero el rumbo es claro: Chrome va camino a ser un asistente que recuerda, anticipa y actúa.

    Chrome ya no solo muestra páginas. Ahora puede recorrer la web por ti. Auto Browse promete ahorrar tiempo, pero exige confianza y atención. La pregunta es cuánto control estás dispuesto a ceder.
    Cuéntanos qué opinas y sigue Flash Diario en Spotify para más historias de tecnología explicadas sin rodeos.

    Bibliografía
    Wired
    CNBC
    ABC News
    Gizmodo
    Engadget
    TechCrunch
    CNET

    Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
  • FLASH DIARIO de El Siglo 21 es Hoy

    Terapias genéticas hechas persona por persona

    28/1/2026 | 11 min
    Aurora Therapeutics quiere escalar terapias Crispr personalizadas para enfermedades raras usando una nueva ruta regulatoria

    Por Félix Riaño @LocutorCo

    En Estados Unidos, un bebé llamado KJ recibió un tratamiento de edición genética hecho para su caso, y los médicos creen que le salvó la vida. Ese detalle suena a ciencia ficción, pero está pasando ya: un equipo diseñó una terapia personalizada en unos seis meses, para corregir una mutación rara que le estaba causando una acumulación peligrosa de amonio en su cuerpo. KJ salió del hospital en junio.

    Ahora, la pregunta es otra: ¿esto se puede repetir para más personas, sin que cada paciente tenga que esperar años? Ahí entra Aurora Therapeutics, una nueva empresa cofundada por Jennifer Doudna, una de las científicas detrás de Crispr y ganadora del Nobel en 2020. Aurora quiere convertir estos “tratamientos a la medida” en algo más común para enfermedades raras. ¿El atajo? Una ruta nueva en la FDA, la agencia que autoriza medicamentos en Estados Unidos.

    )Y aquí viene el giro: si el regulador acepta aprobar terapias con datos de pocas personas, ¿cómo se protege la seguridad cuando el tratamiento es distinto en cada paciente?

    Suena rápido, pero el riesgo es editar donde no toca

    Planteamiento descriptivo (más de 100 palabras)Vamos por partes y sin tecnicismos raros. Crispr es una familia de herramientas que ayuda a “apuntar” a un lugar específico del material genético para hacer un cambio. En el caso de terapias personalizadas, la idea es sencilla de decir y difícil de ejecutar: si una enfermedad viene de una mutación concreta, se intenta corregir esa mutación concreta.El problema es que muchas enfermedades raras tienen poquísimos pacientes. Entonces, hacer ensayos clínicos grandes, con cientos o miles de personas, se vuelve casi imposible. Y ahí aparece un debate enorme: ¿cómo apruebas un tratamiento cuando no puedes reunir tanta gente para probarlo?Aurora Therapeutics dice que va a apoyarse en una ruta nueva de la FDA llamada “plausible mechanism pathway”, que busca aprobar terapias personalizadas para enfermedades raras y graves cuando un ensayo grande no es realista.

    Aquí está la tensión: la promesa de “medicina a la carta” choca con la realidad de la seguridad y la evidencia. En medicina, normalmente se exigen estudios con muchos pacientes para saber dos cosas: si funciona, y si es seguro. En enfermedades raras, ese estándar clásico se vuelve una pared: no hay suficientes personas para llenar un estudio grande, y cada mutación puede ser diferente.

    Aurora quiere empezar por una enfermedad metabólica llamada fenilcetonuria, o PKU, que se detecta con tamizaje al nacer. La PKU puede llevar a niveles tóxicos de fenilalanina en sangre y, sin manejo temprano, afectar el desarrollo del cerebro. En Estados Unidos se habla de unas 13.500 personas viviendo con PKU. El reto extra: hay más de mil mutaciones distintas que pueden causarla. (WIRED)Entonces, aunque el “motor” de la terapia sea el mismo, el “destino” cambia. Y cuando cambias el destino, también cambian los riesgos: el editor podría actuar donde no debe, lo que se conoce como efectos fuera del objetivo. (

    La apuesta de Aurora se apoya en una idea de plataforma. Es decir: mantener el mismo proceso de diseño y fabricación, y cambiar una pieza que guía al editor hacia la mutación correcta. En el caso de KJ, la guía se diseñó para su mutación exacta, por eso su tratamiento era para él y para nadie más.

    Con PKU, Aurora quiere hacer “versiones” que cambien esa guía, para cubrir muchas mutaciones sin tener que empezar desde cero con un proceso regulatorio eterno cada vez. Y aquí la nueva ruta de la FDA es el centro del plan: en el artículo de la New England Journal of Medicine, los autores describen que, si un fabricante muestra éxito en varios pacientes consecutivos con terapias personalizadas relacionadas, la FDA podría avanzar hacia una autorización de comercialización del “producto”, usando esa experiencia para acelerar aprobaciones similares basadas en la misma tecnología.

    ¿Y el “cinturón de seguridad” de todo esto? La ciencia está empujando en paralelo herramientas para controlar a Crispr, como anti-CRISPR diseñados con ayuda de inteligencia artificial, que funcionan como apagadores para que el editor no se quede activo más tiempo del debido. Un estudio en Nature Chemical Biology publicado el 26 de enero de 2026 describe el diseño “de novo” de inhibidores potentes para sistemas tipo Cas13, usando enfoques de diseño de proteínas guiados por IA.

    Vale la pena entender dos historias que se están juntando aquí: regulación y control tecnológico. Por el lado regulatorio, Reuters contó que la FDA presentó esta ruta de “mecanismo plausible” como una forma de permitir acceso más rápido a terapias para enfermedades extremadamente raras y graves, con aprobación basada en datos de pocos pacientes, y con seguimiento posterior usando evidencia del mundo real para confirmar beneficios y vigilar seguridad. Esa última parte es importante, porque no se trata de “aprobar y ya”, se trata de aprobar con condiciones y vigilancia fuerte. (Reuters)Por el lado tecnológico, el tema de los “apagadores” está creciendo porque la medicina no quiere un editor encendido sin control. Phys.org resume el problema así: aunque Crispr puede ser muy preciso, hay riesgos cuando el sistema actúa fuera del objetivo, y encontrar inhibidores naturales ha sido lento; por eso se explora el diseño con IA para crear inhibidores que funcionen como freno.

    Y aquí hay un matiz que me parece fascinante para contarlo en Flash Diario: la carrera ya no es solo “editar mejor”. También es “editar y poder detenerlo a tiempo”. Si Aurora logra una plataforma repetible y, a la vez, la ciencia logra controles más finos, la conversación cambia: pasamos de casos heroicos aislados, como el de KJ, a un modelo donde más familias podrían tener una opción realista.

    Pero queda una pregunta enorme para 2026: ¿cómo se diseña un sistema que sea rápido, personalizado y también verificable, cuando cada paciente es un mundo distinto?

    Aurora Therapeutics, con Jennifer Doudna, quiere llevar la edición genética personalizada a más pacientes con enfermedades raras, usando una ruta nueva de la FDA. La promesa es velocidad y acceso; el reto es seguridad y evidencia cuando cada terapia cambia. Quiero leerte: ¿te emociona o te preocupa este camino? Sigue Flash Diario en Spotify.

    Bibliografía 
    Wired

    Reuters

    New England Journal of Medicine

    Nature Chemical Biology

    Phys.org

    BioPharma Dive

    Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.
  • FLASH DIARIO de El Siglo 21 es Hoy

    Así funciona el nuevo AirTag

    27/1/2026 | 13 min
    Apple renueva AirTag con mayor alcance, sonido más fuerte y soporte directo en Apple Watch

    Por Félix Riaño @LocutorCo

    Después de cinco años sin cambios físicos, Apple pone al día su rastreador más popular. Llega la segunda generación de AirTag, ya disponible desde hoy. Mantiene el precio, mantiene el diseño y mantiene la pila reemplazable. Lo que cambia está por dentro: más alcance real al buscar, un sonido mucho más fácil de oír y nuevas formas de encontrarlo desde el reloj. ¿La pregunta? Si estas mejoras justifican el salto para quien ya tiene uno, o si son la base para competir con lo que viene de otras marcas.

    Más potencia, mismo formato, y un nuevo competidor que ya viene en camino.

    El nuevo AirTag usa el chip Ultra Wideband U2, el mismo que ya está en los iPhone y relojes recientes. Ese cambio permite que la búsqueda de precisión llegue hasta un cincuenta por ciento más lejos. En la práctica, levantas el iPhone y recibes señales visuales, vibración y sonido que te guían paso a paso. Por primera vez, esa búsqueda también funciona desde Apple Watch Series 9 en adelante y desde Apple Watch Ultra 2.
    El altavoz también sube de nivel: suena un cincuenta por ciento más fuerte y se oye desde el doble de distancia. Hay un nuevo tono, pensado para destacar entre ruidos cotidianos. El Bluetooth mejora su alcance general y la batería sigue siendo una CR2032, con más de un año de uso estimado y reemplazo sencillo.

    El éxito del AirTag también trajo debates serios. En el pasado se usó para rastrear personas sin permiso. Apple respondió con alertas de seguimiento no deseado, avisos en iPhone y Android y sistemas de identificación que cambian con frecuencia. Todo eso sigue presente en esta generación.
    Además, el ecosistema es exigente: para activar el nuevo AirTag necesitas iPhone o iPad con iOS 26, cuenta de Apple y sesión iniciada en iCloud. Para algunos usuarios, esa barrera es real. A eso se suma un detalle que muchos siguen pidiendo: el AirTag no trae orificio para llavero. Sigues necesitando funda o accesorio. Funciona, pero no es perfecto.

    Apple mantiene el precio: veintinueve dólares por unidad y noventa y nueve dólares el paquete de cuatro. La compatibilidad con accesorios antiguos sigue intacta. También crece una función muy práctica: Share Item Location, que permite compartir la ubicación de una maleta con aerolíneas. Ya funciona con más de cincuenta aerolíneas y, según datos del sector, ha reducido retrasos y pérdidas de equipaje de forma notable.
    En sostenibilidad, el AirTag usa plástico reciclado en su carcasa, tierras raras recicladas en los imanes y oro reciclado en las placas. El empaque es de papel. No es una revolución visual, pero sí un ajuste fino que refuerza una categoría que ya es parte del día a día.

    El mercado se está calentando. Mientras Apple actualiza, otras marcas avanzan. En el código de HyperOS ya aparecieron referencias al Xiaomi Tag, con versiones con y sin UWB y pila CR2032. Samsung y Motorola también empujan sus opciones. Aun así, AirTag sigue dominando gracias a la red Find My, que usa millones de dispositivos cercanos para ubicar objetos perdidos.
    El nuevo AirTag requiere iOS 26.2.1 para activar todas sus funciones. Esa actualización también llega a iPhone desde 2019. En relojes, la búsqueda de precisión se limita a modelos recientes. El mensaje es claro: Apple afina su rastreador y prepara el terreno para una competencia más dura en 2026.

    AirTag 2 mantiene precio y forma, pero mejora alcance, sonido y uso desde el reloj. Si viajas o pierdes llaves seguido, vale la pena mirarlo. Cuéntanos tu experiencia y sigue Flash Diario en Spotify.

    Bibliografía
    Wired
    Engadget
    Gizmodo
    TechCrunch

    Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

    Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

Más podcasts de Noticias

Acerca de FLASH DIARIO de El Siglo 21 es Hoy

Noticias de ciencia y tecnología en Flash Diario, de El Siglo 21 es Hoy.Este es el pódcast informativo que te mantiene al día con las noticias más relevantes del mundo tecnológico y científico. ¡En 5 minutos!Noticias de tecnología, noticias de ciencia, noticias de entretenimiento digital. Y también noticias de economía digital. Es un producto informativo de ElSiglo21esHoy.comCada episodio de Flash Diario te ofrece una dosis diaria de noticias de actualidad en formato breve y conciso, presentando las noticias más importantes en diferentes ámbitos como la tecnología, la ciencia, la cultura y la sociedad. Con Flash Diario no tienes que preocuparte por perderte ninguna novedad o avance importante en tu día a día.En 5 minutos (promedio) te ofrecemos la información más relevante de manera clara y precisa, para que puedas estar al tanto de lo que sucede en el mundo sin perder tiempo ni detalles.Flash Diario es el compañero perfecto para las personas que quieren estar al tanto de las últimas noticias pero no tienen tiempo para seguir programas más largos y detallados.Con Flash Diario estarás siempre actualizado, informado y preparado para cualquier conversación o situación que se presente. ¡Suscríbete ahora y no te pierdas ni un solo flash informativo!Suscríbete gratis en:➜ YouTube: https://bit.ly/FlashDiario ➜ Spotify: https://spoti.fi/3MRBhwH ➜ Apple Podcasts: https://apple.co/3BR7AWeConviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
Sitio web del podcast

Escucha FLASH DIARIO de El Siglo 21 es Hoy, Aristegui Noticias Podcast y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

FLASH DIARIO de El Siglo 21 es Hoy: Podcasts del grupo

  • Podcast Mitología e Historia: relatos épicos
    Mitología e Historia: relatos épicos
    Historia
  • Podcast #ElRockEsUnBumerang
    #ElRockEsUnBumerang
    Historia, Música
Aplicaciones
Redes sociales
v8.4.0 | © 2007-2026 radio.de GmbH
Generated: 2/2/2026 - 3:18:17 PM