PodcastsTecnologíaChoses à Savoir TECH

Choses à Savoir TECH

Choses à Savoir
Choses à Savoir TECH
Último episodio

1327 episodios

  • Choses à Savoir TECH

    En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?

    02/03/2026 | 2 min
    Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ?

    Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques.

    Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet.

    Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    Poison Fountain, une stratégie pour tuer l’IA ?

    01/03/2026 | 2 min
    Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle.

    Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.

    Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer.

    Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle.

    Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    L’IA d’Elon Musk confiée à un étudiant de 20 ans ?

    26/02/2026 | 2 min
    En septembre dernier, l’ambiance a brutalement changé chez xAI, la filiale d’intelligence artificielle d’Elon Musk à l’origine du modèle Grok. En pleine restructuration, plus de 500 collaborateurs ont été licenciés, principalement des annotateurs de données. Ces profils jouent pourtant un rôle clé : ils étiquettent, corrigent et affinent les réponses de l’IA pour l’aider à apprendre. Certains cadres ont même découvert leurs accès désactivés sans avertissement.

    À l’époque, l’équipe comptait environ 1 000 personnes. Une première vague de licenciements a visé les tuteurs dits « généralistes », l’entreprise expliquant vouloir privilégier des spécialistes capables d’intervenir sur des tâches plus pointues. Un courriel interne évoquait un « virage stratégique » prenant effet immédiat. Une semaine plus tard, 100 suppressions de postes supplémentaires étaient annoncées, malgré des assurances contraires quelques jours auparavant. Les effectifs sont ainsi tombés à 900 employés.

    Dans ce contexte tendu, une décision a surpris : confier la direction d’une équipe stratégique de 900 personnes à un jeune homme de 20 ans. Diego Pasini, étudiant à l’université de Pennsylvanie début 2025, s’est fait remarquer en remportant un hackathon organisé par xAI en janvier. Recruté dans la foulée, il supervise désormais les équipes d’annotation, salariés permanents comme contractuels. Cette nomination s’inscrit dans une philosophie revendiquée par Elon Musk : promouvoir le mérite plutôt que l’ancienneté. Le milliardaire a déjà placé de très jeunes profils à des postes sensibles, notamment au sein du Department of Government Efficiency, où plusieurs collaborateurs avaient moins de 25 ans. Une stratégie qui divise en interne.

    Lors de sa première réunion générale, Diego Pasini a assuré qu’aucune nouvelle coupe n’était prévue. Pourtant, peu après, des entretiens individuels obligatoires ont été instaurés : chaque salarié devait justifier sa valeur ajoutée. Selon certains employés, un « climat de panique » s’est installé. Deux collaborateurs ayant critiqué la promotion du nouveau dirigeant sur Slack auraient vu leurs accès suspendus. Cette culture managériale, marquée par des restructurations rapides et une exigence permanente de performance, interroge sur la stabilité de l’organisation. Reste à savoir si ce pari sur la jeunesse et la pression constante permettra à Grok de s’imposer face aux géants déjà installés de l’IA générative.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    La Chine concurrence Neuralink sur la tech cerveau-machine ?

    25/02/2026 | 2 min
    La Chine veut prendre position sur l’un des terrains technologiques les plus sensibles du XXIe siècle : les interfaces cerveau-ordinateur. Pékin a officiellement classé ce domaine comme secteur stratégique national. Une feuille de route prévoit même l’émergence de deux à trois entreprises « de classe mondiale » d’ici 2030. Parmi les candidats potentiels figure NeuroXess, une start-up fondée en 2021 à Shanghai.

    Son approche diffère de celle de son concurrent le plus médiatisé, Neuralink, la société d’Elon Musk. Pour comprendre l’enjeu, il faut rappeler ce qu’est une interface cerveau-ordinateur, ou BCI pour Brain-Computer Interface : il s’agit d’un dispositif capable de capter l’activité électrique du cerveau et de la traduire en commandes numériques, par exemple pour déplacer un curseur ou contrôler un appareil. NeuroXess développe un système composé d’un maillage métallique placé à la surface du cerveau, relié à un processeur implanté dans la poitrine. Ce processeur transmet ensuite les signaux à un ordinateur externe. L’implantation en surface est considérée comme moins invasive que l’insertion d’électrodes directement dans le tissu cérébral, comme le fait Neuralink. En revanche, cette méthode capte pour l’instant des signaux moins détaillés, donc des débits de données plus limités.

    L’objectif premier reste médical. Ces technologies visent à aider des patients atteints de paralysie sévère ou de maladies neurodégénératives comme la sclérose latérale amyotrophique. Selon son fondateur, Tiger Tao, NeuroXess a déjà réalisé un premier test humain : un patient paralysé aurait réussi à déplacer un curseur à l’écran cinq jours seulement après l’implantation. Pendant ce temps, Neuralink mène un essai clinique international avec une vingtaine de patients pour démontrer la capacité de ses implants à transformer rapidement l’activité neuronale en actions numériques complexes.

    En Chine, l’écosystème s’accélère. Les levées de fonds se multiplient et une dizaine d’essais cliniques ont été lancés récemment. Le pays dispose d’un atout majeur : un vaste réservoir de patients potentiels, ce qui facilite le recrutement pour les études médicales. À plus long terme, NeuroXess ambitionne de miniaturiser davantage ses implants afin de réduire encore l’invasivité et, peut-être un jour, d’élargir les usages au-delà du cadre strictement médical.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • Choses à Savoir TECH

    Freedom.gov, le site anti-censure de Donald Trump en Europe ?

    24/02/2026 | 2 min
    Selon des informations rapportées par Reuters, le Département d’État américain travaillerait sur une plateforme baptisée Freedom.gov. Son objectif : permettre à des internautes étrangers d’accéder à des contenus bloqués ou supprimés par leurs propres gouvernements.

    Le principe serait relativement simple sur le plan technique. Le site fonctionnerait comme un VPN — un réseau privé virtuel. Pour rappel, un VPN fait transiter la connexion d’un utilisateur par un serveur situé dans un autre pays. Résultat : l’internaute apparaît comme naviguant depuis ce pays, ce qui permet de contourner certaines restrictions géographiques ou légales. Freedom.gov s’appuierait ainsi sur des serveurs basés aux États-Unis, sans enregistrer l’identité ni l’activité des visiteurs. En clair, l’État américain deviendrait lui-même fournisseur d’anonymat en ligne, un rôle jusqu’ici occupé par des acteurs privés comme NordVPN ou ExpressVPN.

    Le projet serait supervisé par Sarah Rogers, responsable de l’image des États-Unis à l’étranger. Présentée comme une initiative en faveur de la liberté d’expression, la plateforme permettrait d’accéder à des contenus jugés illégaux localement — qu’il s’agisse de discours controversés ou de propagande. Une approche qui s’inscrit dans la ligne de l’administration Trump, souvent critique à l’égard des régulations européennes du numérique. Mais en interne, le projet susciterait de fortes réserves. Des juristes du Département d’État auraient alerté sur les risques diplomatiques : encourager des citoyens étrangers à contourner les lois nationales pourrait exposer Washington à des tensions juridiques sérieuses. Officiellement, le porte-parole du Département d’État affirme que « la liberté numérique est une priorité », sans confirmer les détails du dispositif.

    Côté européen, l’inquiétude est palpable. Kenneth Propp, ancien diplomate américain aujourd’hui chercheur à l’Atlantic Council, évoque auprès de Reuters « un tir direct » contre les lois européennes, notamment le Digital Services Act. Cette réglementation impose aux plateformes de retirer contenus haineux ou désinformation. Pour l’administration Trump, cette loi serait perçue comme hostile aux entreprises américaines. Dans un contexte déjà tendu — différends commerciaux, guerre en Ukraine, débats sur le Groenland — Freedom.gov pourrait devenir un nouveau point de friction. D’autant que des figures proches d’Elon Musk, farouche opposant aux règles numériques européennes, seraient impliquées dans le projet. Difficile, dès lors, d’y voir une simple initiative technique.
    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Más podcasts de Tecnología

Acerca de Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sitio web del podcast

Escucha Choses à Savoir TECH, Mundo Futuro y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

Choses à Savoir TECH: Podcasts del grupo

  • Podcast Choses à Savoir SCIENCES
    Choses à Savoir SCIENCES
    Ciencias
Aplicaciones
Redes sociales
v8.7.2 | © 2007-2026 radio.de GmbH
Generated: 3/3/2026 - 5:06:47 PM