
LG se suma a la guerra RGB
17/12/2025 | 6 min
LG Micro RGB evo debuta en CES 2026 con nueva tecnología de color y control de luzPor Félix Riaño @LocutorCoLG presenta su primer televisor Micro RGB evo para 2026, con color total certificado y control avanzado de luz.LG acaba de confirmar que va a entrar de lleno en la nueva generación de televisores RGB. En CES 2026, la marca va a presentar el LG Micro RGB evo, su televisor LCD más avanzado hasta ahora. Llega en tamaños de setenta y cinco, ochenta y seis y cien pulgadas, con una promesa clara: colores más precisos, más puros y mejor control de la luz. Este anuncio pone a LG en la misma carrera en la que ya están Samsung, Hisense, TCL y Sony. Pero aquí hay una diferencia clave: LG dice que va a llevar la precisión aprendida en trece años de OLED a un televisor LCD. ¿Hasta dónde puede llegar esta mezcla de tecnologías?La clave está en cómo se ilumina la imagen, no en el tipo de panelEl LG Micro RGB evo usa una retroiluminación formada por pequeños grupos de luces rojas, verdes y azules. Esos grupos iluminan varios píxeles a la vez y permiten un control del color mucho más fino que el de los televisores LCD tradicionales. LG explica que este sistema alcanza el cien por ciento de los espacios de color BT punto veinte veinte, DCI-P3 y Adobe RGB, algo certificado por Intertek.Para gestionar esa precisión, el televisor incorpora el procesador Alpha once generación tres, un chip que se encarga del control de la luz, el tratamiento del color y el escalado de imagen con ayuda de inteligencia artificial.El desafío de esta tecnología está en el equilibrio. Aunque el televisor cuenta con más de mil zonas de atenuación, hay modelos Mini LED que ofrecen muchas más. Eso puede marcar diferencias en escenas con contrastes extremos. Además, este tipo de panel sigue necesitando filtros de color, algo que no ocurre en OLED ni en el microLED real.El objetivo de LG es cerrar la brecha entre brillo, precisión de color y tamaño de pantalla, sin llegar a los costos extremos del microLED, que hoy sigue reservado para presupuestos muy altos.LG confía en que el control avanzado de la luz y el procesamiento heredado de su experiencia en OLED compensen esas limitaciones. El Micro RGB evo se apoya en sistemas de atenuación más precisos y en algoritmos que ajustan brillo y color en tiempo real.El televisor también integra la versión más reciente de webOS, con perfiles personalizados, ajustes automáticos de imagen y sonido, y herramientas de asistencia con inteligencia artificial. LG va a mostrar el modelo en CES 2026, en Las Vegas, entre el seis y el nueve de enero, donde se conocerán datos finales como brillo máximo, consumo y precio.El movimiento de LG confirma una tendencia clara para 2026. Varias marcas ya han presentado o anunciado televisores RGB. Hisense mostró uno de ciento dieciséis pulgadas. Samsung lanzó un modelo de ciento quince pulgadas con un precio cercano a los treinta mil dólares. TCL ya comercializa opciones en China y Sony prepara su tecnología True RGB.RGB y microLED no son lo mismo. En RGB, los LEDs iluminan grupos de píxeles; en microLED, cada píxel emite su propia luz. Esa diferencia técnica explica por qué el microLED sigue siendo tan costoso.Para creadores de contenido, la cobertura total de BT punto veinte veinte resulta especialmente atractiva. Para el público general, el mayor impacto se va a notar en escenas HDR con colores intensos y altos niveles de brillo.LG entra en la carrera del RGB con un televisor que busca combinar brillo, color y control avanzado de luz. El Micro RGB evo se va a mostrar en CES 2026 y ahí vamos a saber si cumple todo lo que promete. Cuéntame qué opinas y sigue Flash Diario en Spotify.LG presenta su primer televisor Micro RGB evo para 2026 con color certificado y control avanzado de la retroiluminación.📚 BibliografíaThe VergeLG NewsroomEngadgetCNETConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

Así planea Apple que uses gafas inteligentes todo el día
16/12/2025 | 8 min
Apple apuesta por eficiencia: va a usar tecnología del Apple Watch para mejorar batería y peso en sus futuras gafas inteligentes Por Félix Riaño @LocutorCo Apple lleva años buscando la fórmula correcta para unas gafas inteligentes que puedas usar todo el día. El gran obstáculo ha sido siempre el mismo: la batería. Las Apple Vision Pro muestran músculo tecnológico, pero su autonomía se queda corta y su peso limita el uso prolongado. Ahora, varios reportes coinciden en una idea clara y muy lógica: Apple va a recurrir a la tecnología que ya domina en el Apple Watch para resolver ese problema. Chips pensados para consumir poca energía, mantener buen rendimiento y reducir peso. La pregunta es directa y vale la pena hacerla desde ya: ¿estamos más cerca de unas gafas inteligentes realmente usables en la vida diaria? La solución existe desde hace años y ya vive en tu muñeca Las gafas inteligentes juegan con reglas distintas a las de un visor de realidad mixta. No están pensadas para sesiones cortas en interiores, sino para acompañarte durante horas mientras caminas, hablas, escuchas y te mueves por la ciudad. Eso cambia por completo las prioridades de diseño. Aquí, la potencia bruta pasa a segundo plano y la eficiencia energética se vuelve central.Según los reportes más recientes, Apple va a evitar los procesadores del iPhone y va a apostar por los chips tipo S que usa el Apple Watch. Estos procesadores están diseñados para funcionar con baterías pequeñas, generar poco calor y mantener un consumo estable durante muchas horas. Para unas gafas ligeras, esa combinación resulta mucho más adecuada que un chip pensado para un teléfono. El problema no es solo cuánto dura la batería, sino dónde se coloca el peso. En un dispositivo que se lleva en la cabeza, cada gramo cuenta. Una batería grande mejora la autonomía, pero hace las gafas incómodas y poco prácticas. Por eso, la mayoría de modelos actuales en el mercado apenas alcanzan unas pocas horas de uso continuo.A esto se suma otro reto: la experiencia de uso. Muchas gafas inteligentes dependen de botones poco intuitivos, gestos difíciles de recordar o combinaciones de activación que generan confusión. En situaciones cotidianas, como caminar o conducir, eso puede convertirse en un riesgo.Apple quiere evitar ese escenario desde el inicio. Por eso, el primer modelo de sus gafas no va a incluir pantalla integrada y va a depender de la conexión con el iPhone para tareas más exigentes, manteniendo el hardware de las gafas lo más simple y ligero posible. Los rumores apuntan a que Apple va a presentar sus primeras gafas inteligentes en 2026, con una llegada comercial más amplia en 2027. Este primer modelo funcionará como un accesorio del iPhone, de forma similar al Apple Watch. Las gafas se encargarán de captar información del entorno mediante cámaras, micrófonos y sensores, mientras que el iPhone procesará las tareas más complejas.El chip elegido sería un System in Package del Apple Watch, como el S10. Este procesador ofrece la potencia necesaria para manejar comandos de voz, reconocimiento visual básico y reproducción de audio, manteniendo un consumo energético muy bajo. Para entender la magnitud de esto, basta mirar al Apple Watch Ultra, que puede superar el día completo de uso con este tipo de arquitectura.Apple parece estar apostando por resolver primero la comodidad y la autonomía. Las funciones más avanzadas, como pantallas integradas o realidad aumentada completa, quedarían reservadas para generaciones posteriores. Este movimiento de Apple llega en un momento clave para el sector. Meta ya ha logrado vender millones de gafas inteligentes gracias a su alianza con Ray-Ban, apostando por un diseño discreto y funciones básicas bien integradas. Google, por su parte, prepara su regreso con Android XR junto a Samsung y marcas de moda, mientras otras empresas exploran distintos enfoques, desde gafas con pantallas flotantes hasta modelos centrados en audio y traducción en tiempo real.Los analistas coinciden en que las gafas inteligentes podrían convertirse en una pieza más del ecosistema personal, junto al teléfono, los audífonos y el reloj. Casos de uso como asistencia a personas con discapacidad visual, navegación sin mirar el móvil, traducción automática o lectura discreta de mensajes ya muestran un valor claro.La gran incógnita sigue siendo el equilibrio entre utilidad, precio y aceptación social. Apple confía en que una entrada gradual, priorizando comodidad y batería, le permita evitar errores del pasado y llegar con una propuesta madura. Apple va a usar la experiencia del Apple Watch para resolver el mayor problema de las gafas inteligentes: la batería. Menos peso, más horas de uso y una integración clara con el iPhone. Ahora dime tú: ¿usarías unas gafas inteligentes sin pantalla? Escucha más historias como esta en Flash Diario en Spotify.Apple va a usar chips del Apple Watch para lograr gafas inteligentes ligeras, con más batería y pensadas para uso diario.🔗 BibliografíaAndroid Headlines9to5MacMacObserverWTOPEngadgetChannelNewsConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

Google Maps ya sabe dónde aparcaste
15/12/2025 | 7 min
Google Maps ahora guarda automáticamente dónde aparcas en iPhone y elimina el pin cuando vuelves a conducirPor Félix Riaño @LocutorCo¿Te ha pasado que sales de un centro comercial, miras alrededor y no recuerdas dónde dejaste el coche? Google Maps acaba de activar una función que busca resolver justo ese momento de confusión. En iPhone, la app ahora detecta automáticamente cuándo terminas un trayecto en coche y guarda el lugar exacto donde aparcaste, sin que tengas que tocar nada. La función funciona de forma silenciosa, se borra sola cuando vuelves a conducir y está pensada para integrarse con CarPlay, Bluetooth o USB. Es un cambio pequeño en apariencia, pero muy práctico en el día a día. ¿Por qué ha tardado tanto en llegar y por qué solo está disponible en iOS?Funciona sola… pero deja fuera a millones de usuarios Android.Vamos a explicar qué está pasando. Google Maps en iOS empezó a activar hace unas semanas una función que reconoce cuándo llegas en coche a un lugar y cuándo apagas el motor. En ese momento, la app guarda automáticamente la ubicación del vehículo y coloca un pin en el mapa. Ese pin permanece visible durante cuarenta y ocho horas. Si antes de ese tiempo vuelves a conducir, el pin desaparece sin que hagas nada. Todo ocurre de forma automática.Para que funcione, el iPhone debe estar conectado al coche por CarPlay, Bluetooth o cable USB. No hace falta usar el botón manual de “guardar aparcamiento” que Google Maps ya tenía desde hace años. Ahora el sistema actúa por contexto, entendiendo el inicio y el final del trayecto. Es una función pensada para la vida real, para despistes cotidianos y para lugares grandes como parkings, hospitales o aeropuertos.Aquí aparece la tensión. Esta función solo está activa en Google Maps para iOS. En Android, el sistema sigue siendo manual. El usuario debe guardar el lugar y borrar el pin por su cuenta. Esto ha generado muchas preguntas, sobre todo porque Android es la plataforma principal de Google.Además, aunque el sistema guarda la ubicación horizontal del coche, no indica el piso o nivel en un parking de varias plantas. Eso significa que en parkings grandes todavía toca fijarse en columnas, colores o señales. Algunos usuarios también se preguntan qué datos usa Google para detectar el aparcamiento y si esto afecta a la privacidad. Google explica que el pin se elimina automáticamente y que la ubicación no queda guardada de forma permanente. Aun así, la diferencia entre iOS y Android deja una sensación rara de funciones desiguales dentro del mismo ecosistema.Google ha ido afinando esta función poco a poco. Primero activó el guardado automático del aparcamiento. Luego añadió un detalle visual: si usas un icono personalizado de coche en Google Maps, ese mismo icono aparece marcando el lugar donde aparcaste, en vez del clásico símbolo con la letra P.Los iconos personalizados existen desde dos mil veinte, y este año Google añadió nuevos modelos y colores. Ahora ese detalle se convierte en parte del sistema de aparcamiento. No cambia la navegación, pero hace la experiencia más clara y más humana.En comparación, Apple Maps lleva años ofreciendo detección automática del aparcamiento en iPhone. Google llega más tarde, pero lo hace integrado con su propia app y con una lógica simple: entras al coche, conduces, aparcas, te bajas, y el mapa se encarga del resto. No hay menús, no hay recordatorios, no hay pasos extra.Este tipo de funciones forma parte de una tendencia más amplia: apps que entienden el contexto sin que el usuario tenga que pedirlo. Google Maps ya hace algo parecido al detectar si vas caminando, en bici o en transporte público. El aparcamiento automático encaja en esa misma idea.También hay una comparación interesante con AirTag y otros sistemas de rastreo. Aquí no hay accesorios extra ni hardware adicional. Todo depende del teléfono, del coche y del comportamiento de uso.Por ahora, Google no ha dicho cuándo llegará esta función automática a Android. En Android Auto existe un botón para guardar el aparcamiento, pero sigue siendo manual. Eso deja abierta una pregunta clara: ¿es una limitación técnica o una decisión de producto? Mientras tanto, en iPhone la función ya está activa por defecto en muchos dispositivos, sin anuncios grandes ni actualizaciones visibles. Simplemente aparece un día… y funciona.Google Maps ahora recuerda automáticamente dónde aparcas si usas iPhone y conectas el coche. El pin se borra solo al volver a conducir. Es práctico, discreto y muy fácil de usar. La gran duda es cuándo llegará a Android. Cuéntame si ya lo viste activo en tu móvil y sigue Flash Diario en Spotify para más historias así.Google Maps en iPhone ahora guarda solo dónde aparcas, borra el pin al conducir y deja a Android esperando.📚 BibliografíaMacRumorsExtremeTech9to5GoogleMashablePCMagConviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

La sonda que explicaba el pasado de Marte ya no responde
12/12/2025 | 8 min
NASA perdió contacto con MAVEN, sonda clave para estudiar Marte y comunicar rovers. Buscan recuperarla para evitar impacto en futuras misionesPor Félix Riaño @LocutorCo NASA confirmó que la sonda MAVEN dejó de comunicarse con la Tierra durante un paso orbital detrás de Marte. La señal nunca volvió, pese a que todo funcionaba bien antes del ocultamiento. MAVEN llevaba más de una década estudiando la atmósfera marciana y trabajando como enlace de comunicaciones para los rovers Curiosity y Perseverance. Ahora los equipos en la Tierra buscan recuperar el contacto y entender lo que pasó, porque la misión es vital para la ciencia y para las operaciones activas en el planeta rojo. ¿Qué implica este silencio inesperado para el presente y el futuro de Marte? MAVEN es una sonda que llevaba once años en órbita marciana. Llegó en 2014 y desde entonces ayudó a entender cómo Marte perdió su atmósfera, cómo interactúa con el viento solar y cómo esos procesos transformaron al planeta en un mundo frío y seco. También era parte del sistema que transporta datos desde la superficie marciana hasta la Tierra, un rol que permitía que fotos, mediciones y avances científicos llegaran a nuestros laboratorios. El 6 de diciembre, MAVEN cruzó detrás de Marte en una maniobra rutinaria. Antes de perderse de vista, sus datos mostraban un funcionamiento estable, sin señales de anomalías. Pero al salir del lado opuesto, el silencio fue total. NASA no recibió ni un pulso de telemetría. Ese hecho genera inquietud, porque afecta observaciones científicas y comunicaciones. Además, recuerda la fragilidad de una flota envejecida que mantiene activa la exploración marciana. El silencio de MAVEN llega en un momento en el que la red de orbitadores de NASA ya está bajo presión. Mars Odyssey lleva más de veinte años y se espera que agote su combustible pronto. El Mars Reconnaissance Orbiter también supera la década y media de operación, con instrumentos que han dado señales de desgaste. La Agencia Espacial Europea aporta dos naves, Mars Express y el Trace Gas Orbiter, pero también están cumpliendo ciclos de vida extendidos. Cada una cubre turnos de comunicación para los rovers, y si una falla, la carga aumenta en las demás. MAVEN aportaba una ventaja especial: su órbita alta permitía relays más largos, lo que resolvía grandes cantidades de datos en menos tiempo. Perder ese enlace significa una reducción inmediata en la capacidad de transmitir ciencia desde la superficie marciana. También complica la logística de futuras misiones como el programa para traer a la Tierra las muestras recogidas por Perseverance. Y para completar el panorama, NASA aún no ha logrado definir ni lanzar un nuevo orbitador de comunicaciones, pese a que lleva dos décadas intentándolo. Los equipos en la Tierra estudian telemetrías previas al apagón y la última posición calculada para modelar hipótesis. Buscan señales débiles en el Deep Space Network, una red de antenas gigantes ubicadas en España, Estados Unidos y Australia. Esta red rastrea sondas a miles de millones de kilómetros y es la única capaz de recuperar un rastro diminuto que permita reconstruir la orientación o estado energético de MAVEN. La prioridad es determinar si la nave entró en un modo de seguridad, si perdió actitud, si hubo un fallo en la antena o si ocurrió un problema más profundo en sus sistemas. Recordemos que en 2022 MAVEN pasó tres meses en modo seguro por fallas en sus giróscopos y fue necesario reescribir su software de orientación. Ese antecedente mantiene viva la esperanza de que el equipo logre reactivarla. NASA también estudia acelerar el desarrollo del futuro orbitador de telecomunicaciones, un proyecto que por fin recibió financiación de 700 millones de dólares. Blue Origin y Rocket Lab ya han presentado ideas para cumplir ese rol. Mientras tanto, las demás naves seguirán absorbiendo más carga de comunicaciones para que Curiosity y Perseverance no queden aislados. MAVEN aportó descubrimientos esenciales. En 2023 entregó imágenes de Marte en luz ultravioleta, mostrando detalles de su atmósfera como si fueran señales químicas en movimiento. También reveló el mecanismo de “sputtering”, un proceso físico mediante el cual partículas energéticas arrancan átomos de la atmósfera, contribuyendo a la desaparición del aire del planeta. Identificó además una aurora de protones, un fenómeno que no aparece en la Tierra y que se produce cuando el viento solar interactúa con el hidrógeno atmosférico. Sus mediciones permitieron reconstruir el pasado de un Marte que pudo tener mares extensos. MAVEN es parte de las piezas que llevaron a los científicos a concluir que el Sol fue el responsable de la perdida atmosférica que transformó un planeta húmedo en uno seco. También fue un actor clave para elegir rutas seguras y zonas de aterrizaje para futuras misiones robóticas y tripuladas. Su rol de puente entre superficie y Tierra se volvió más importante con Perseverance, que está almacenando tubos con rocas que algún día viajarán a la Tierra. El silencio de MAVEN no significa el fin inmediato de esta cadena, pero sí obliga a reorganizar todo el sistema. MAVEN dejó de comunicarse después de una década aportando ciencia y comunicaciones vitales desde Marte. NASA trabaja para recuperar su señal y mantener operativa la red que sostiene a Curiosity, Perseverance y futuras misiones. Te invito a seguir pensando en cómo cuidamos estas naves que mantienen viva nuestra ventana al planeta rojo. Sigue el pódcast Flash Diario. BibliografíaScienceAlertScientific AmericanNASA ScienceABC NewsPBS NewsHourArs TechnicaThe Guardian Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.

Adobe mete Photoshop dentro de ChatGPT
11/12/2025 | 6 min
Adobe integra Photoshop, Express y Acrobat en ChatGPT para editar fotos, diseños y PDF dentro del chat Por Félix Riaño @LocutorCo Adobe abrió la puerta para que cualquier persona pueda editar fotos, diseñar piezas gráficas y ajustar documentos PDF dentro de ChatGPT. Esta integración funciona con herramientas reales de Photoshop, Adobe Express y Acrobat, usadas durante décadas en la industria creativa. Desde hoy, los usuarios van a poder pedirle al chat que borre fondos, mejore la iluminación de una imagen, arme invitaciones con plantillas profesionales o combine varios archivos PDF sin cambiar de aplicación. Con este movimiento, Adobe se acerca a las personas que aún no usan sus programas y convierte a ChatGPT en un espacio de trabajo creativo accesible. ¿Qué implica esto para el futuro de la edición digital? Adobe anunció que Photoshop, Express y Acrobat ya funcionan dentro de ChatGPT a nivel global. Las tres herramientas aparecen como aplicaciones integradas, listas para ejecutar acciones con instrucciones habladas o escritas. Photoshop permite ajustar brillo, contraste, exposición y efectos creativos; además edita zonas específicas de una foto sin perder calidad. Express facilita la creación de piezas como invitaciones, afiches y publicaciones para redes sociales, usando plantillas listas para personalizar. Acrobat ayuda a reorganizar páginas, extraer tablas, editar texto, convertir formatos y hasta unir varios PDF. Todo esto sucede en el mismo chat, donde los controles se muestran como barras deslizantes fáciles de manejar. La llegada de estas herramientas crea un escenario nuevo. ChatGPT ofrece sus propios sistemas para generar imágenes, pero muchos usuarios pedían ajustes más precisos. Adobe, por su parte, buscaba acercarse a un público más amplio que siente que sus programas son complejos. Ahora surge un reto: varias aplicaciones de edición también existen dentro del chat. Canva ya estaba presente. Gemini de Google también ofrece edición. Esto crea competencia directa dentro de la misma ventana de conversación. Para los usuarios, la opción más cómoda será la que responda mejor a su necesidad del momento. Para Adobe, la apuesta es fortalecer su ecosistema y ganar confianza con personas que nunca abrieron Photoshop o Acrobat. Adobe diseñó esta integración usando el Modelo de Contexto (MCP), el mismo sistema que permite conectar apps externas con ChatGPT. La novedad más llamativa está en Photoshop, que adapta los controles según la instrucción del usuario. Si se pide aclarar una foto, aparecen controles de exposición. Si se busca un efecto, aparecen opciones como tritono o glitch. En Express, todo el proyecto se puede editar sin salir del chat. Y en Acrobat, la edición respeta el formato original del documento, algo muy difícil de lograr con editores genéricos. Adobe ofrece estas funciones gratis dentro de ChatGPT, pero mantiene sus aplicaciones completas para quienes necesitan trabajos avanzados. Adobe trabaja desde hace dos años en sistemas de IA conversacional dentro de sus programas. Llamó a esta línea de trabajo “agentes creativos”. Express ya tenía un asistente que proponía diseños y animaciones. Photoshop estaba probando una versión beta de un asistente que interpreta instrucciones habladas. Y Firefly, su modelo de generación de imágenes, prepara una herramienta que conectará varias apps entre sí. Con estas integraciones, Adobe entra en un espacio que OpenAI quiere convertir en el “sistema operativo” de las aplicaciones del día a día. Las empresas empiezan a competir por el mismo lugar dentro del chat, lo que va a cambiar la forma en que usamos programas tradicionales. Adobe trae Photoshop, Express y Acrobat directamente a ChatGPT y convierte el chat en un espacio creativo completo. Desde ajustar fotos hasta armar diseños y editar PDF, todo se hace con instrucciones simples. Si te interesa cómo la IA cambia las herramientas de trabajo, te invito a seguir Flash Diario Photoshop, Express y Acrobat llegan a ChatGPT. Ahora puedes editar fotos, diseños y PDF gratis usando instrucciones dentro del chat. BibliografíaTechCrunchThe Wall Street JournalEngadgetThe VergeCNETAdobe Newsroom Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters.



FLASH DIARIO de El Siglo 21 es Hoy