
La Nasa abandonne ses échantillons de Mars à la Chine ?
12/1/2026 | 2 min
C’était l’un des paris scientifiques les plus ambitieux de l’exploration martienne. Avec le rover Perseverance, la NASA voulait accomplir une première historique : rapporter sur Terre des échantillons de sol martien pour les analyser avec les outils les plus sophistiqués dont disposent nos laboratoires. Objectif ultime : trancher, enfin, la question d’une vie passée sur Mars. Mais aujourd’hui, ce rêve se heurte brutalement à une réalité bien terrestre : celle des budgets.Le programme Mars Sample Return, censé récupérer les 35 tubes soigneusement collectés par Perseverance, est au bord de l’abandon. Le budget voté par la Chambre des représentants américaine, pourtant plus généreux que celui initialement envisagé par l’administration Trump, ne prévoit que 650 millions de dollars pour MSR. Une somme dérisoire face aux quelque 11 milliards estimés pour mener la mission à son terme. Le texte doit encore passer devant le Sénat, mais le signal est clair : l’argent ne suivra pas.Il faut dire que MSR est un casse-tête technologique. Un atterrisseur sur Mars, une fusée capable de décoller depuis la planète rouge — une première —, un rendez-vous orbital, puis une capsule de retour vers la Terre. Une chaîne d’opérations complexe, longue, coûteuse. L’administration Trump avait déjà qualifié le projet « d’inabordable ». L’Agence spatiale européenne, ESA, partenaire du programme, a reconnu ne pas pouvoir poursuivre seule. Dans les coulisses, le changement de cap est radical. Washington pousse désormais la NASA à se tourner vers des solutions commerciales, en sollicitant des acteurs privés comme SpaceX ou Blue Origin, dans l’espoir de réduire les coûts. Problème : sans financement massif supplémentaire, aucun industriel n’est prêt à relever le défi aujourd’hui. Résultat : les échantillons pourraient rester sur Mars pendant des décennies.Pendant ce temps, la Chine avance ses pions. Sa mission Tianwen-3, prévue pour la fin de la décennie, devient mécaniquement favorite pour réussir le premier retour d’échantillons martiens. Une stratégie plus simple, plus directe, déjà éprouvée sur la Lune. Si Pékin y parvient avant 2030, le coup sera rude pour les États-Unis : scientifique, symbolique et diplomatique. L’exploration spatiale redevient un terrain de rivalités, où l’audace ne suffit plus sans les moyens de la financer. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Vos conversations avec l’IA revendues en secret ?
11/1/2026 | 3 min
Pendant longtemps, Internet a entretenu l’idée rassurante d’une séparation nette entre la vie publique et la sphère privée. On écrit, on cherche, on questionne, persuadé que ces échanges restent confinés à l’écran. Les assistants conversationnels ont renforcé ce sentiment, avec leur ton calme, presque empathique, et la promesse implicite de confidentialité. Mais cette frontière supposée se fissure dès qu’on regarde ce qui se cache derrière certaines extensions installées en toute confiance.Depuis des mois, des millions d’utilisateurs dialoguent avec des IA comme OpenAI via ChatGPT ou Anthropic avec Claude, livrant parfois des fragments très intimes de leur existence : soucis de santé, dilemmes personnels, informations professionnelles sensibles. En face, une machine disponible en permanence, qui ne juge pas et semble tenir sa langue. Sauf que cette confiance repose souvent sur une illusion. Derrière l’interface, chaque mot peut être aspiré, analysé… voire revendu. C’est là qu’intervient Urban VPN Proxy. Présentée comme un outil gratuit de protection, cette extension a séduit plus de six millions d’utilisateurs. Une enquête du média Koi a pourtant mis en lumière un tout autre fonctionnement. L’extension injecte des scripts invisibles dans les pages des principaux services d’IA — ChatGPT, Claude, Gemini, Perplexity ou Grok — afin d’intercepter les requêtes, les réponses, les horaires de connexion et diverses métadonnées. Ces données sont ensuite compressées, envoyées vers les serveurs d’Urban VPN, puis transmises à des partenaires tiers.Le plus troublant, c’est l’absence totale de contrôle. La collecte démarre dès l’installation, continue même lorsque le VPN est désactivé et ne peut pas être interrompue par l’utilisateur. Selon Forbes, cette fonctionnalité aurait été ajoutée en juillet 2025 via une mise à jour silencieuse. Officiellement, l’éditeur, Urban Cyber Security Inc., affirme agir pour la « protection de l’utilisateur ». Mais sa politique de confidentialité indique clairement que les données sont partagées avec BiScience, une société spécialisée dans l’analyse comportementale. Autre élément dérangeant : l’extension bénéficie d’un badge « Featured » sur le Chrome Web Store de Google. Ce label suggère une validation manuelle et une conformité aux bonnes pratiques. Pourtant, l’outil intercepte aussi des données issues de Gemini, le chatbot maison de Google. Pour Futurism, cette situation interroge sérieusement la rigueur des processus de validation et la responsabilité des grandes plateformes. Au final, le constat est brutal. On installe un VPN pour se protéger, et l’on se retrouve surveillé. On parle à une IA comme à un confident, et l’on alimente une économie discrète de la donnée. Derrière le discours rassurant de la sécurité numérique, la logique reste la même : celle d’une surveillance bien huilée, souvent invisible, et rarement consentie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Starlink panique pour la sécurité de ses satellites ?
08/1/2026 | 3 min
Starlink s’apprête à faire descendre une partie significative de sa constellation. Environ 4 400 satellites vont voir leur altitude abaissée, une décision présentée comme une mesure de sécurité. L’annonce a été faite par Michael Nicolls, vice-président de l’ingénierie chez Starlink, dans un message publié sur X. Derrière ce choix technique se cache une réalité souvent méconnue : en orbite basse, l’environnement n’est jamais figé. Le Soleil, lui aussi, influence les règles du jeu.Concrètement, l’opérateur prévoit de faire passer ses satellites d’environ 550 kilomètres d’altitude à 480 kilomètres, à partir de 2026. L’objectif affiché est double : réduire le risque de collision en se positionnant dans une zone jugée moins encombrée, et surtout accélérer la désorbitation des satellites en cas de panne. En toile de fond, l’arrivée du minimum solaire, une phase du cycle du Soleil marquée par une baisse d’activité. Résultat : l’atmosphère terrestre se contracte légèrement, ce qui diminue les frottements et rallonge la durée de vie des objets en orbite basse. À 550 kilomètres, un satellite hors service peut ainsi rester en orbite pendant plus de quatre ans avant de retomber naturellement. Trop longtemps, estime Starlink. Selon Michael Nicolls, descendre à 480 kilomètres permettrait de réduire de plus de 80 % le temps de décroissance balistique, le faisant passer de plusieurs années à seulement quelques mois durant le minimum solaire. Autrement dit, un satellite « mort » disparaîtrait bien plus vite, limitant son statut de débris incontrôlable.Sur le papier, la manœuvre peut sembler contre-intuitive. Abaisser l’altitude de milliers de satellites donne l’impression de concentrer encore davantage la circulation spatiale. Mais Starlink ne raisonne pas en densité locale : l’entreprise parle de couloir orbital. En dessous de 500 kilomètres, il y aurait moins d’objets en circulation et moins de projets concurrents. Il ne s’agit donc pas de fluidifier une zone saturée, mais de déplacer la constellation vers un étage jugé plus « calme ». Le véritable enjeu, toutefois, n’est pas la manœuvre, mais la panne. Tant qu’un satellite fonctionne, il peut corriger sa trajectoire et éviter les collisions. Lorsqu’il cesse de répondre, il devient un projectile passif livré aux lois de la gravité. Plus il reste longtemps en orbite, plus le risque d’accident augmente.Ce choix a aussi une dimension politique. À mesure que les méga-constellations se multiplient, la question des débris spatiaux revient avec insistance dans les débats réglementaires. En abaissant l’altitude de ses satellites, SpaceX se dote d’un argument simple : en cas de problème, ses engins quittent l’orbite plus vite. Reste une interrogation de fond : si 480 kilomètres devient demain l’étage privilégié de l’industrie, l’embouteillage ne fera que changer de niveau. Une chose est sûre : en orbite basse, la marge d’erreur se réduit à vue d’œil, et même les plans dits « de sécurité » ressemblent de plus en plus à des stratégies de survie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Grok : la France enquête sur des deepfakes de mineurs ?
07/1/2026 | 3 min
Les ennuis judiciaires s’accumulent pour la galaxie d’Elon Musk. Cette fois, on ne parle ni de polémiques sur la modération, ni de débats idéologiques autour de la liberté d’expression. Les autorités françaises et malaisiennes viennent d’ouvrir, presque simultanément, des enquêtes visant la plateforme X et son intelligence artificielle Grok. Le motif est d’une tout autre gravité : la diffusion de contenus pédopornographiques générés par IA.Les faits sont glaçants. Des utilisateurs ont montré qu’il suffisait de formuler certaines requêtes pour obtenir, via Grok, des images hyperréalistes représentant des mineurs dans des tenues explicitement sexualisées, parfois entièrement nus. Là où d’autres systèmes d’IA bloquent strictement ce type de demandes, l’outil développé par xAI a laissé passer ces requêtes. La réponse officielle évoque des « défaillances dans les garde-fous ». Une justification jugée bien légère au regard de la gravité des contenus produits.En France, la réaction a été rapide. Le parquet de Paris, par l’intermédiaire de sa section spécialisée dans la cybercriminalité, a ouvert une enquête pour diffusion d’images pédopornographiques. Cette procédure vient s’ajouter à d’autres dossiers déjà en cours visant X et Grok, notamment pour des dérapages de contenu signalés fin 2024. Mais le changement de nature est radical : ici, il n’est plus question d’opinions ou de désinformation, mais de protection de l’enfance. Un domaine où la tolérance des autorités est proche de zéro et où le statut de plateforme technologique n’offre que peu d’abris juridiques. Ce scandale met surtout en lumière les conséquences concrètes de la doctrine défendue par Elon Musk : une liberté d’expression quasi absolue, obtenue au prix du démantèlement des équipes de modération, d’éthique et de sécurité. En retirant ces garde-fous, xAI a laissé une IA puissante évoluer sans limites claires. Le résultat est aujourd’hui sous les yeux des enquêteurs.La situation est d’autant plus explosive en Malaisie. Le pays vient tout juste de signer un partenariat pour intégrer Grok comme outil éducatif dans les écoles publiques. À Kuala Lumpur, les autorités doivent désormais rassurer des parents stupéfaits : comment expliquer qu’un logiciel présenté comme un assistant scolaire puisse produire certains des contenus les plus illégaux du web ? L’affaire dépasse largement le cadre d’un incident technique. Elle prend désormais des allures de crise politique, judiciaire et de santé numérique, avec des répercussions internationales qui pourraient durablement fragiliser l’empire Musk. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Une start-up prédit vos émotions avant vous ?
06/1/2026 | 2 min
Une start-up française commence à se faire remarquer dans le paysage très concurrentiel de l’intelligence artificielle. Son nom : Emoticonnect. Sa promesse est ambitieuse : aller au-delà de l’analyse des données passées pour anticiper les réactions émotionnelles à venir. Autrement dit, ne plus seulement observer ce que pensent les individus, mais prévoir comment ces perceptions vont évoluer. À première vue, Emoticonnect rappelle deux références bien connues du secteur. Comme Palantir, elle structure et croise de vastes volumes de données. Comme Scale AI, elle sait industrialiser ces analyses à grande échelle. Mais la comparaison s’arrête là. La jeune pousse française ajoute une brique singulière : la prédiction émotionnelle.Soutenue par des travaux scientifiques menés notamment avec le CNRS, sa technologie analyse finement des émotions comme la peur, la colère, la confiance ou l’enthousiasme, mais surtout leur dynamique dans le temps. Il ne s’agit pas d’un simple thermomètre de l’opinion. L’IA détecte des signaux faibles, anticipe des basculements de perception et identifie des tensions avant qu’elles n’éclatent. Une approche prédictive, pensée pour aider à la décision plutôt que pour produire des constats a posteriori. Les applications sont déjà bien réelles. Dans les secteurs de la défense et de la sécurité, l’outil permet de repérer des menaces émergentes à partir de conversations en ligne. Les assureurs l’utilisent pour identifier des clients à risque avant une résiliation. Dans le divertissement et les médias, il sert à anticiper les sujets susceptibles de créer un engouement… ou une polémique. À chaque fois, l’objectif est le même : comprendre ce qui monte avant que cela ne devienne visible.Cette polyvalence a valu à Emoticonnect une reconnaissance européenne, avec l’obtention d’un label valorisant à la fois sa solidité scientifique et son potentiel stratégique. La start-up est également présente à l’Eureka Park, vitrine des innovations de rupture du Consumer Electronics Show. Son directeur technique, Nicolas Rochelemagne, résume l’enjeu : « Les organisations ne manquent pas de données, mais de capacité à en extraire du sens — et surtout à comprendre ce qui va se passer. » Dans un monde saturé d’opinions et de signaux numériques, Emoticonnect parie que l’avenir de l’IA se jouera moins sur la quantité d’informations que sur la capacité à en anticiper les effets. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.



Choses à Savoir TECH