Powered by RND
PodcastsTecnologíaChoses à Savoir TECH

Choses à Savoir TECH

Choses à Savoir
Choses à Savoir TECH
Último episodio

Episodios disponibles

5 de 1253
  • NVIDIA révèle les secrets de sa réussite ?
    Depuis l’irruption de ChatGPT dans le grand public, l’intelligence artificielle est devenue la nouvelle ruée vers l’or… et le grand gagnant de cette vague s’appelle Jensen Huang. Le patron de NVIDIA, fabricant des GPU indispensables à l’entraînement des modèles d’IA, dirige aujourd’hui une entreprise dont la capitalisation dépasse le PIB de l’Allemagne. Un succès vertigineux, qu’il explique pourtant avec une simplicité presque déconcertante.Invité par le Cambridge Union, le milliardaire est revenu sur son parcours. Né à Taïwan, arrivé aux États-Unis à l’âge de neuf ans, il fonde NVIDIA en 1993, à tout juste 30 ans. Mais selon lui, la base de sa réussite se trouve bien avant, dans une enfance marquée par un refus absolu de se fixer des barrières. Il raconte notamment une scène qui a forgé sa manière d’aborder la vie : sa mère, qui ne parlait pas un mot d’anglais, lui a pourtant enseigné la langue… armée uniquement d’un bout de papier et d’un dictionnaire.Un souvenir fondateur. « À bien des égards, cela définit NVIDIA. Cela me définit aussi », résume-t-il. Si sa mère, qui ne parlait que le hokkien taïwanais, a pu accomplir cette prouesse, alors rien ne lui semble vraiment impossible. C’est cette philosophie qu’il applique aujourd’hui à son entreprise, devenue incontournable dans la révolution de l’IA : « J’aborde presque tout en me demandant : est-ce vraiment si difficile ? » confie-t-il. Sa fortune personnelle, désormais estimée à plus de 165 milliards de dollars, n’a pas entamé cette vision très directe du travail et de la réussite. Et son discours fait écho à celui d’autres géants de la tech — comme Pavel Durov — qui disent avoir puisé leur inspiration dans le courage et la ténacité de leurs parents. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:06
  • Peut-on forcer l'IA à commettre des actes illégaux ?
    Les alertes autour des dérives possibles de l’intelligence artificielle se multiplient, et les dernières recherches ne sont pas rassurantes. Après les révélations sur Claude AI exploitée par des espions chinois et la découverte par OpenAI que ChatGPT pouvait mentir, une nouvelle étude montre à quel point il est facile de contourner les règles censées encadrer ces systèmes. Cette fois, ce sont les chercheurs de Cybernews qui tirent la sonnette d’alarme. Leur objectif : vérifier si les garde-fous intégrés aux principaux modèles du marché résistent à des tentatives de manipulation simples, rapides, et réalistes. Verdict : une minute suffit souvent à faire déraper une IA.L’équipe a testé six modèles : Gemini Flash 2.5, Gemini Pro 2.5, ChatGPT-5, ChatGPT-4o, Claude Opus 4.1 et Claude Sonnet 4. Les chercheurs ont soumis à ces systèmes toute une série de demandes liées à des thématiques sensibles : discours haineux, maltraitance animale, contenus sexuels, criminalité, piratage, drogues, contrebande ou encore harcèlement. Chaque réponse était notée selon son niveau de conformité ou de déviation.Et les conclusions sont sans appel :« Avec les bons mots, même des utilisateurs non techniques peuvent amener un modèle à produire des réponses nuisibles », résume l’étude. Certains modèles divulguent même des informations dangereuses dès que la demande est habilement formulée.Un constat surprenant émerge : être aimable fonctionne mieux que provoquer l’IA. Parler gentiment au modèle, présenter la question comme une enquête, un roman ou un travail universitaire permettait souvent de contourner ses protections. À l’inverse, les insultes ou les formulations agressives déclenchaient plus facilement un refus. Les réactions varient toutefois selon les modèles. Les IA d’Anthropic, plus strictes, se sont montrées particulièrement fermes sur les discours haineux et les stéréotypes, même si elles ont parfois cédé face aux « attaques académiques ». Gemini Pro 2.5 apparaît comme le plus problématique : il « fournissait souvent des réponses directes et potentiellement dangereuses ». Quant à ChatGPT, il se situe au milieu du peloton : souvent prudent, mais susceptible de céder lorsque la demande prend la forme d’un récit ou d'une analyse à la troisième personne — produisant alors des réponses symboliques ou psychologiques contenant malgré tout des éléments sensibles. Pour les chercheurs, même des “fuites partielles” représentent un risque majeur si elles tombent entre de mauvaises mains. Reste désormais aux développeurs à renforcer ces garde-fous, avant qu’un simple contournement ne devienne une porte d’entrée vers des usages autrement plus inquiétants. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:39
  • Mistral, l’arme de Thales contre les dérives de l’informatique quantique ?
    Les ordinateurs quantiques n’existent pas encore à grande échelle, mais ils inquiètent déjà tout le monde. Leur puissance de calcul pourrait, à terme, briser les systèmes de chiffrement qui protègent aujourd’hui nos communications, nos données sensibles, nos transactions. En clair : le coffre-fort numérique mondial pourrait devenir transparent du jour au lendemain. Face à cette menace, Thales prend les devants. Le groupe français vient de dévoiler Mistral, un nouveau système de chiffrement conçu pour résister aux attaques quantiques. Une solution souveraine, destinée aux administrations publiques, aux opérateurs d’importance vitale et aux industriels de la défense. Objectif : sécuriser dès juin prochain toutes les communications classées « limitées ». Et le timing n’est pas un hasard.À Rennes, où se tient la Cyber Week, Thales frappe fort pour la deuxième fois en deux mois, après avoir présenté son dispositif DCM5 dédié aux secrets d’État. Avec Mistral — à ne pas confondre avec la start-up Mistral AI — le message est clair : la course au chiffrement post-quantique est lancée, et l’Europe entend bien ne pas rester spectatrice. Concrètement, Mistral repose sur des algorithmes spécialement conçus pour survivre à la puissance de calcul des futures machines quantiques. Le système vise la certification Common Criteria EAL4+, l’un des niveaux les plus élevés au monde, et se conforme aux recommandations de l’ANSSI, l’agence française cybersécurité.Thales assure également que la performance n’a pas été sacrifiée. Mistral affiche un débit impressionnant de 4 × 10 Gbit/s, avec une latence minimale, ce qui permet d’intégrer la solution dans des infrastructures existantes sans ralentissement. Grâce à une gestion centralisée, le déploiement se veut simple et rapide, un atout de taille pour les grandes organisations déjà sous tension. Selon Pierre Jeanne, vice-président cybersécurité souveraine, Thales sera prêt à fournir « une solution capable de résister aux attaques quantiques » à la France et à ses partenaires européens dès juin 2026. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:11
  • UE/USA : quelles sont les nouvelles réglementations en 2026 ?
    Sept ans après son entrée en vigueur, le RGPD continue d’imposer sa marque, tout en s’inscrivant dans un environnement réglementaire européen devenu beaucoup plus dense. Depuis 2018, l’Union européenne a multiplié les textes pour encadrer l’économie numérique : la directive NIS2 renforce la cybersécurité des opérateurs jugés essentiels, le Data Act organise le partage des données issues des objets connectés, et l’AI Act, premier cadre mondial pour les intelligences artificielles à « haut risque », entre progressivement en application. Ensemble, ces textes redéfinissent les obligations des entreprises, du stockage de données à la gouvernance des algorithmes.Mais une idée reçue circule : non, le registre des traitements n’a pas disparu. La Commission européenne a simplement proposé en 2025 d’en assouplir les conditions pour les petites structures. Ce projet de règlement « Omnibus » permettrait d’exempter davantage d’entreprises, en relevant le seuil de 250 à 750 salariés et en limitant l’obligation aux traitements présentant un « risque élevé ». Le texte est encore à l’étude, mais le principe d’accountability, lui, reste central : chaque organisation doit continuer à documenter ses traitements, ses finalités, ses durées de conservation et ses mesures de sécurité — y compris l’authentification multifacteur et le chiffrement, désormais considérés comme des standards de base. Le Data Act, entré en application le 12 septembre 2025, instaure un droit d’accès et de partage équitable des données générées par les produits connectés. Concrètement, un fabricant ou un fournisseur ne pourra plus bloquer l’accès à ces données : il devra respecter un principe “FRAND” – équitable, raisonnable et non discriminatoire. Les obligations techniques ne s’appliqueront toutefois qu’aux nouveaux produits mis sur le marché à partir de septembre 2026.De son côté, l’AI Act, adopté en 2024, impose d’ici 2026 des obligations lourdes pour les systèmes d’IA dits « à haut risque » : gestion des risques, documentation complète, transparence et audits réguliers. Enfin, NIS2, transposée fin 2024, élargit considérablement le périmètre des entités soumises aux règles de cybersécurité, avec davantage de contrôles, de notifications d’incidents et de sanctions. À l’international, les États-Unis avancent en ordre dispersé : faute de loi fédérale, chaque État – Californie, Virginie, Colorado ou Utah – impose son propre régime. En revanche, les transferts de données entre l’Europe et les États-Unis reposent désormais sur le Data Privacy Framework, validé par Bruxelles en 2023, et toujours en vigueur malgré plusieurs recours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:58
  • Meta gagne des milliards grâce aux scams ?
    C’est une enquête qui secoue le monde de la publicité en ligne. Selon des documents internes obtenus par l’agence Reuters, Meta, la maison mère de Facebook et d’Instagram, aurait tiré en 2024 près de 16 milliards de dollars de revenus issus de publicités liées à des arnaques ou à des produits interdits. Une somme colossale, représentant environ 10 % de son chiffre d’affaires annuel, estimé cette année-là à 164,5 milliards de dollars.D’après ces révélations, Meta dispose bien d’un système interne capable de repérer les campagnes suspectes, mais le seuil pour qu’une annonce soit réellement bloquée est extrêmement élevé. Les algorithmes du groupe n’interdisent un annonceur que lorsqu’ils atteignent 95 % de certitude qu’il s’agit d’une fraude. Un taux de tolérance qui laisse forcément le champ libre à de nombreux escrocs. Et lorsqu’un annonceur n’atteint pas ce seuil, Meta applique une mesure baptisée “penalty bids” : l’entreprise augmente le prix de ses espaces publicitaires pour ces comptes jugés à risque. Si les annonceurs acceptent de payer plus cher, la plateforme encaisse les revenus supplémentaires — une méthode qui, de fait, monétise le risque plutôt que de l’éliminer. Pire encore, le système de recommandation publicitaire continue à diffuser des annonces similaires auprès des utilisateurs ayant déjà interagi avec une publicité frauduleuse. Autrement dit : plus une arnaque circule, plus elle rapporte.Selon un rapport interne daté de décembre 2024, les plateformes de Meta auraient diffusé en moyenne 15 milliards de publicités “à haut risque” chaque jour. Parmi elles, les plus suspectes — qualifiées de “higher-risk ads” — auraient généré à elles seules près de 7 milliards de dollars de revenus annualisés. L’enquête de Reuters, couvrant la période 2021-2025, montre aussi une application particulièrement laxiste des règles internes. Un petit annonceur doit être signalé au moins huit fois avant d’être bloqué, tandis que les gros comptes — les High Value Accounts — peuvent cumuler plus de 500 infractions sans suspension. Interrogé par Reuters, Andy Stone, porte-parole de Meta, parle d’une “vision sélective” et d’une interprétation “trop large” des chiffres. Il affirme que la société a supprimé 134 millions de publicités frauduleuses en 2025 et que les signalements d’utilisateurs ont chuté de 58 % en un an et demi. Mais pour Reuters, la conclusion est claire : malgré ses promesses, Meta reste structurellement dépendante d’un modèle où la fraude fait partie du profit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:34

Más podcasts de Tecnología

Acerca de Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Sitio web del podcast

Escucha Choses à Savoir TECH, Loop Infinito (by Applesfera) y muchos más podcasts de todo el mundo con la aplicación de radio.net

Descarga la app gratuita: radio.net

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app

Choses à Savoir TECH: Podcasts del grupo

Aplicaciones
Redes sociales
v7.23.12 | © 2007-2025 radio.de GmbH
Generated: 11/19/2025 - 12:38:54 PM