Je te déconseille fortement de jouer à ce jeu là avec eux. L'immigration américaine n'est pas réputé pour sa bienveillance et n'aime pas le foutage de gueule. Et pour une assistance de l’ambassade... Ah moins d'être mieux classé qu'un lambda, je te conseille de compter sur elle quelques heures/jour après ton "enfermement" dans une "cellule" de l'aéroport. (Et ceci, si elle apprend ton existence). Non, crois-moi, il est préférable d'expliquer ton pseudo que de jouer au con avec eux.
pour clarifier les choses, en sachant que c'est une première (sur le Next nouvelle formule, il y en a eu par le passé) et que le sujet est toujours en work in progress au sein de la rédac :
- On reçoit régulièrement des propositions de contributions externes, et dans le lot, il y en a dont on se dit qu'elles pourraient être intéressantes, ou enrichissantes pour les lecteurs de Next, soit parce qu'elles amènent un point de vue expert sur un sujet complexe (c'est le cas ici), soit parce qu'elles expriment une opinion dont on pense qu'elle nourrit le débat (qu'on soit d'accord ou non avec ladite opinion). ça fait un moment qu'on évalue l'intérêt, ou non, d'accepter de les publier.
On a fini par se dire que ça valait le coup, avec bien sûr une sélection stricte. En l'occurrence, il faut que trois personnes distinctes dans la rédac (dont Seb ou moi) valident. Si l'une des trois ne le sent pas, on n'y va pas, et on ne justifie pas les refus. Pour reprendre un mot à la mode la rédac est donc collectivement "souveraine" sur le choix de ce qui passe. Et l'idée est clairement de se montrer sélectif, pas de publier le premier post LinkedIn venu.
- on se doit bien entendu de présenter l'auteur ou l'autrice de la tribune en question, et surtout de signaler qu'il s'agit d'une production extérieure à la rédaction, à caractère non journalistique.
La visibilité que confère une parution dans un média est d'ailleurs l'une des motivations qui pousse les experts à rédiger des tribunes, chez Next comme dans d'autres canards. Pour autant, on veut que cette visibilité reste limitée : c'est le contenu qui prime, pas la personne qui le signe. Par exemple, on ne met pas de lien vers son site ou son profil LinkedIn (avis à tous les wannabee référenceurs qui espèrent choper des backlinks, c'est turbo dead ), et c'est aussi ce qui explique la création de ce profil générique "Tribune" qui signe l'article (plutôt qu'un profil nominatif).
Dans ce contexte on part du principe que c'est la caution Next qui est censée primer pour nos lecteurs : si on a validé tel ou telle intervenant, et décidé de publier sa contribution, c'est qu'il y a le niveau de légitimité et d'intérêt requis, sans qu'on ait besoin de le justifier. Cela dit, il manque effectivement ici une mention de la nature de l'activité de Rayna S., qui est bien le conseil en cybersécurité et en affaires publiques. Je le précise de ce pas.
Comme dit au début de ce trop long commentaire, work in progress, vos retours sont comme toujours les bienvenus pour nous aider à affiner le sujet
Question idiote : Les abonnées peuvent-ils soumettre des contributions dans les thèmes proposés par Next ?
Si oui, existe-t-il un document qui permet de donner les règles à suivre en terme d'écriture ?
Le problème c'est que ce n'est pas interdit partout dans le monde (certains pays de disent rien tant que c'est pas de vrais humains qui sont concernés), donc pour moi, si quelqu'un en veut il trouvera toujours une solution même si c'est pas légale d'en avoir en France.
Après pour Shein et Temu, pour moi c'est qu'une infime partie du problème de ces plate-formes qui ne contrôle rien : toxicité, origine, pollution, etc. Mais doucement toutes les plate-formes vont vers ça avec les marketplaces. Ça va être de plus en plus compliqué d'avoir des trucs de qualité « acceptable » sans chercher longtemps.
ça ne peut pas être interdit partout dans le monde car le monde n'a pas la même sensibilité que nous.
A la différence de beaucoup de français, j'ai vécue au Japon et comme certains ici je suis tombée sur ce "concept" là-bas. J'avoue ça m'a fortement perturbé puis au final je me suis rappelé que la pédophilie dans les Églises, l'enseignement catholique et ainsi de suite... pour finalement me convaincre (à tord ou à raison) que si ça permet d'éviter que de vrais enfants souffrent, c'est mal pour un bien. Est-je tord ? Je ne sais pas. Mais tant que je serai toujours choquée/outrée par ça c'est que l'esprit est sain.
ça ne veut pas dire que je trouve admissible qu'en France de tel chose soit disponible à la vente !
Et oui, malheureusement pour les enfants, tout les pays ne partage pas la même vision des choses que nous. En 2025, il vaut mieux être un enfant née en Europe (et encore pas dans n'importe quel pays non plus) qu'en Asie, en Afrique ou en Amérique.
C'est surtout un gros de com' qui sert à taper sur Shein, à donner l'impression que nos politiques servent actuellement à quelque chose, et pour certains à se donner de la visibilité pour faire progresser leur carrière.
Ce qui me fait drôle, c'est qu'on a pas fait tout un foin pour Betharam (qui n'est qu'un iceberg). Je n'ai pas souvenir d'avoir entendu Mme El Haïry monté au front lors que le scandale à éclater, ni même à mettre la pression sur les écoles catholiques ou l'Eglise.
Quand au ministre de l'économie qui menace Plus facile d'attaquer la sécurité sociale que d’interdire à la vente
Je reste perplexe. Il est indéniable que Rust a montré une voie interessante pour le futur sur le safety memory. Pourtant, il n'a pas vraiment pris. Python a été adopté bien plus rapidement que lui et sa popularité mesuré par TIOBE montre qu'il diminue de plus en plus, au point d'être derrière l'assembleur et même Ada.
Rust pour le bas niveau, on attend toujours un vrai truc. On n'a toujours pas de vrais drivers Linux pour des composants critiques, beaucoup sont en dev mais toujours pas de cas concrets sur des éléments comme le PCI-E, le scheduler, le RDMA... ça ne veut pas dire qu'il n'y a pas de petite pétite comme Redox.
L'autre soucis de Rust, c'est sa librairie extrêmement pauvre. On peut rien faire de sérieux avec sans devoir passer du temps à chercher à trouver une crate. Certes c'est une feature mais pour un langage qui vise le bas-niveau, je suis pas convaincue du tout. C++, avec ses qualités et ses défauts, fait largement mieux. En terme pro, dans ma boîte malgré que Rust était bien positionné pour un projet le fait devoir utiliser cargo avec ces 1000 et 1 dépendances nous a finalement fait préféré le Go.
Un autre également soucis de Rust, c'est son temps de compilation. On gagne en sécurité mémoire à l'écriture, soit. Mais si on perd un temps fou à compiler. Autant le C++ n'est pas memory safety, mais avec les sanitizers de LLVM de nos jours on arrive à un code en pratique sur (contre une sûreté théorique, même si loin de Ada/SPARK).
Je ne partage pas l'avis pour le parallélisme. Le parallélisme de Rust c'est vraiment limité et on le sent sur les performances, dès qu'on commence à faire des choses un peu bourrines (e.g., calcul matriciel en pure Rust.). Je veux bien croire que ce soit pratique pour Firefox mais pour du code de calcul non merci Rust. Et qui à binder avec des lib éprouvées en Fortran (mais alors elle est où la safety memoire temps vendu) autant faire des langages réellement utile.
Enfin la syntaxe de Rust, que je trouve à titre personnel, un mélange batard entre du fonctionnel et du LLVM IR. Mais je suis d'acoord avec l'auteur. Pour peu qu'on est un LLM sous la main, Rust devient facilement utilisable. D'où la question de l'intêret de langage ? Un langage fait pour des IA me parait un pari risqué pour le langage lui-même (vu le rejet général de l'IA) et pour certains secteurs industrielles.
Et c'est là que j'explique la faible popularité de Rust. Clairement les offres d'emplois ne se bouscule pas sur Rust. Si je prends le site WelcomeToTheJungle, il y a une 20 d'entreprises qui utilisent Rust contre plus de 330 pour du C++, et encore plus en Python. Je comprends le besoin de sûreté mémoire, surtout pour des éléments critiques comme des drivers. Par contre, pour du ferroviaire ou de l'aéronautique, bah Ada fait le café non ?
En fait pour moi Rust trouve difficilement une place car d'un coté le C++ est bien implémenter et, autant je suis d'accord avec l'auteur Rust-> C++ c'est ok mais pas l'inverse. De l'autre les industries doivent apprendre une nouvelle stack et avec libs à faire certifier (par exemple FIPS pour le chiffrement), une maigre librairie standard, et le besoin de Cargo (pas forcément un truc acceptable dans des endroits sensibles comme la défense et la sûreté) où le C++ règne fortement et Ada également.
En fait Rust me fait penser à Scilab en enseigne universitaire. De bonnes idées, mais développer par des PhD en info pour des PhD en info. Résultant les enseignants et les étudiants préfèrent Matlab : une syntaxe claire, une document facile à trouver, et on peut réellement se concentrer sur le pourquoi du problème que de ce demander ou mettre cette fichu flèche, crochets ou autre symbole estorérique.
Ce n'est pas un commentaire anti-Rust. J'ai codé en Rust depuis ma dernière intervention dessus. Mais honnêtement dans mon porte-folio de langage (asm, Ada, C et co) je ne vois pas l’intérêt de Rust pour de réels usages industriels. Même en IA Rust ne fait que binder les lib en C ou CUDA. Et vu le temps de compilation Python est largement plus utile niveau rendement et fiabilité (vu l'usage intensif de ces codes, on l'aurait vite vu si il y a avait de graves bugs mémoires).
Si quelqu'un veut en discuter, c'était mes 2 yens.
A la lecture de l'article, j'ai plus l'impression que Nvidia se prépare tranquillement à l'implosion de la bulle IA, et même se prépare à prendre la prochaine bulle avec la robotique, et si possible avec financement publique. Il déplace tranquillement ses billes dans les endroits/domaines où l'IA a montré une utilité (e.g., pharmaco, supercalculateurs...) tout en maintenant du rêve (e.g., fusion nucléaire, quantique) mais discrètement bouge sur la robotique pour le futur de Nvidia.
Il y a nombre de candidat bien plus performant ou adéquat que python pour l'IA.
Maintenant l'histoire de Phyton n'est pas exempte de problème non plus. On a vu des mots comme "benevolent dictator" fuser. Et pas pour de bonnes raisons.
Non, justement Python est un très bon candidat pour l'IA pour deux raisons. Premièrement, c'est son aspect "script" et haut-niveau. Python est facile à prendre en main, rapide à comprendre pour des non-informaticiens (e.g., biologistes, physiciens...) et l'aide dessus est disponible. Ce n'est pas pour rien qu'il s'est imposé aussi vite et largement dans des domaines connexes à l'informatique.
Son deuxième atout, c'est son aspect "glue". Python comprenant parfaitement l'ABI C, il devient alors très facile de compenser ses faiblesses notamment la performance. Et c'est pour ça que tu le retrouves dans le traitement de données divers et variés, l'IA ou encore la simulation numérique. Python gluant du C/Fortran/C++ permet d'avoir un langage simple à utiliser et structurer (Python c'est peut-être des scripts, mais il s'est faire de la fonctionnelle et de la POO ce qui aide à produire du code clair et maintenable) et des librairies performantes pour les tâches nécessaires.
Tu mentionnes l'IA. Si tu as codé de l'IA en bas-niveau (C++ avec programmation GPU) tu sais à quelle point c'est fastidieux. Et quand tu veux, par exemple, entraîner un CNN tu n'as pas envie de faire passer 1 semaines à coder ton pré-processing sur des images en C++ surtout pour des tests, le temps d’ajuster les hyper-paramètres... Et Python te permet justement ça. Tu laisses la performance à des gens expérimentés et qui aiment l'odeur du silicium et du germanium, et l'aspect plus "haut-niveau" à des personnes plus à l'aise avec les notions d'un CNN que de savoir comment tu vas découper tes images pour entraîner/inférer.
Les cas à la marge où cette approche n'est pas possible sont très minoritaires et, de toute façon accessible à seulement des gens expérimentés et avec les connaissances soft & hard nécessaire. Et ce genre de profil ne court pas les rues, ni les boulevards.
Tu touche du doigt le problème principal... les devs d'aujourd'hui ne code que le cas nominal, ils ne prennent pas ou peu en compte les cas dégradés probables, sans même parler des possibles ou des inimaginables.
Pour le taf j'ai fait une expression de besoin, avec une série de conditions, pour traiter un fichier. On m'a indiqué qu'une recette avait eu lieu ... et on m'a présenté le résultat. Une valeur impossible, qui ne fait pas partie des spécs était présente, ça n'a choqué aucun des devs présents, le fait de compter 2 fois des éléments, ça ne les a pas choqué non plus. Ils ont réussi à me pondre un outils qui ne respecte même pas les specs ...
J'ai d'autres exemples sur d'autres process où seul le cas nominal est codé, genre une IHM, on demandé un téléphone, bah aucun contrôle sur le type de données, donc on peu balancer l'alphabet chinois pour faire planter l'interface, 0 contrôle de surface. et la réponse des devs ? "nan mais l'utilisateur il fait pas ça, nous on sait comment ça marche on ne le fait pas" C'est beau la naïveté, ou l'ignorance, ou un mélange des deux ...
Oui mais les devs, ils ont des managers qui eux, pour la plupart, n'ont jamais réellement codé de leur vie. Et avec l'avènement des LLMs, ils pensent que coder c'est juste l'IA qui va tout gérer. Et comme ce genre de managers est extrêmement présent (un peu comme les polluants éternels) dans les entreprises, difficile de laisser des devs compétents faire correctement son boulot.
Alors certes tu as des idiots, mais d'expérience faut regarder la chaîne de commandement.
L'algorithme standard du machin biologique qui doomscroll c'est :
1. scroll 2. lire titre (pas trop de mots, attention) / écouter un supposé autre machin biologique baragouiner des trucs sur fond d'une musique tendance 3. réagir (de préférence indigné, ça fait bander l'algo) 4. GOTO 1
L'IA n'a pas le potentiel disruptif qu'a l'arme nucléaire (surtout thermo-nucléaire) sur les relations entre puissances.
Bien que très jeune encore, l'IA actuelle est aussi un enjeu de défense nationale car de plus en plus utilisée comme outil de cyberattaque (fermes à désinformation, social engineering, phishing, recoupement de données, etc.).
Avec la guerre froide qui se livre sur les réseaux depuis quelques temps (et IRL aussi), les technologies de l'information sont une arme et l'IA en fait partie. Ça peut tuer de manière indirecte, mais aussi directe comme il y a eu des exemples dans le conflit israelo-palestinien relayés ici.
Mais à la différence de l'arme nucléaire, une grande partie de la puissance de l'IA peut-être amoindri en éduquant sa population.
Si les GPUs ont plus de coeurs qu'un CPU, mais les coeurs d'un GPU sont nettements plus simple d'un point de vue architecturale. Par exemple, les mécanismes de scheduling au sein d'un CPU sont nettement plus complexe que ceux dans un GPU. Également, les mécanismes de prédicat de branchement sont inexistant. D'ailleurs les GPUs n'aiment pas les sauts conditionnels, surtout lorsque celui intervient dans le calcul. C'est moins embêtant lorsqu'on fait par exemple du reduce, et que le saut conditionel a vocation a mettre idle d'autres threads que le principal.
Là où je tique beaucoup plus c'est la notion de parallélisme donnée par Google. Soyons plus précis, le parallélisme dans un GPU n'est pas le parallélisme dans un CPU au sens où plusieurs coeurs d'un CPU peuvent travailler sur une matrice ou autres structures de données. Le parallélisme dans un GPU est assez proche du "parallélisme" SIMD d'un coeur CPU, i.e. la possibilité de pouvoir effectuer une même opération (addition, multiplication, bit shift...) sur plusieurs données en même temps au prix d'un temps équivalent à la même opération en scalaire. En réalité, un GPU est plus SIMT que SIMD mais passons. Par exemple, si je fais 3.14f*x (x est un float 32 bits) sur un Zen 2 tournant à une fréquence nominale de 4 GHz, ça prend 1 ns. Si maintenant je fais 3.14vx (vx est un tableau/vecteur de float 32 x4 [4 car 432=256 bits -> AVX256]), je peux effectuer en 1 ns 4 opération sur mon vecteur, qui peut par exemple représenter les canaux rgba d'une image.
Et à ce jeu là les GPUs sont terriblement redoutable. D'où leur utilité pour les IA, le calcul matriciel (simulation, image processing...) et autres domaines où les algorithmes peuvent être pensés pour s'implémenter avec ce genre de possibilité matérielle.
Au final, le parallélisme d'un GPU n'est pas celui d'un CPU au sens commun du terme. Ce qui le décrit mieux est l'aspect vectoriel des unités SIMD (MMX, SSE, AVX, AMX...) du CPU dont le parallèle avec le GPU est nettement plus direct.
Je rejoins la réponses de @Mow47. La seule différence que je vois depuis mon passage de Nvidia à AMD (sous Linux, pas de Windows sauf celui du boulot), c'est uniquement pour les aspects GPGPU.
Petite question StarWars mais sait on jamais : Y-t-a-il des contraintes EM pour les avions, etc ?
Oui. L'évènement redouté est plutôt le rayon cosmique à haute énergie qui vient flipper un bit en RAM. Ca doit être détectable et mitigeable. (dans les fonctions critiques). Plus tu montes en altitude plus ça prend de l'importance. (y a un gros saut là dessus entre satellites en orbite basse et satellites en orbite géo, parce que tu passes la ceinture de Van Allen qui protège pas mal de ça).
Pour ce qui est de se prémunir des armes à énergie dirigées, aucune idée des niveaux de puissance en jeu. S'il te faut 20tonnes de blindages à ton chasseur, tu le feras pas épicétou.
Le vrai problème du rayon cosmique n'est pas tant l'altération d'un bit en RAM. D'abord parce que ce genre de mécanisme existe déjà sur nos machines et est facile à réaliser. Les défis sont du cotés des modifications multi bits (lié à la désintégration nucléaire du rayon cosmique après impact), de la modification en cours de calcul d'un bit.
L'autre défi est la capacité des circuits à supporter la radiation, car il n'est pas impossible que l'apport d'énergie engendre des réactions nucléaires (et donc modification des éléments chimiques au sein des composants électroniques) tout comme leur destruction/altération définitive.
+1 d'autant plus qu'en aérospatial les contraintes de radioactivités font que ce genre d'architecture ARM ne sont pas vraiment utilisable car il faut de la redondance dans les circuits. Généralement, c'est de la gravure grossière et des architectures spécialisées (avec redondances, vérification des résultats en //).
Repartir sur une architecture Neoverse qui n'est pas du tout éprouvé pour cette tâche ressemble plus, de mon point de vue, à du pipot pour la levée de fond face à des mecs qui n'ont jamais touché ce domaine. Et à terme, un moyen de survie sans réel atout. Bref, Start-up Nation.
En tout cas, et je leur laisse le bénéfice du doute, si SiPearl arrive à produire un tel CPU pour ce type d'usage et qui est réellement utilisé c'est une bonne chose. Autant pour l'aspect HPC, ils ont raté leur coche (pas d'innovation majeure principalement), autant pour la Défense ça peut marcher.
Reformatage des images de catégories en FAT 32, parce que c’était mieux avant.
Soit je suis en hypocaféinémie (ou en hyperconneriémie) mais je comprends pas du tout cette phrase. C'est quoi le rapport entre des images et un système de fichiers dans ce contexte ?
Il faut également noter que S. Mallat est aussi un grand nom français dans le cosmos de la théorie des ondelettes et les outils mathématiques associées.
Comment ça pas eut de précédant ? Mise à jour windows, certificats et store bloqué pour la Russie pendant 6 mois quant même au début de son entrée en guerre.
"Au début de son entrée en guerre", donc c'était une représailles suite à l'invasion de la Russie en Ukraine.
Ici, c'est plus le cas en temps de paix militaire et contre un allié.
En cas de besoin ils le feront, évidemment, et ils le font déjà. Voir le cas du procureur de la CPI, dont le compte a été fermé par Microsoft a la demande de l'administration américaine.
Une déclaration de guerre ? Les européens feront quoi ?
Oui mais la CPI ce n'est pas un pays entier. Certes la symbolique est violente tout comme l'absence de réponse de certains pays, mais ce n'est pas un pays.
Les européens ne feront rien et Trump ne veut pas de guerre militaire avec nous. Trump veut juste notre soumission, qu'il a déjà eu avec les taxes de douanes. Pour le reste, Trump veut s'assurer que notre richesse aillent chez lui. Trump veut s'assurer que nous restons ses vassaux, et qu'une partie de notre richesse allaient chez lui. Il ne veut pas quel l'Europe s'émancipe.
Pour moi, ce message est un avertissement clair contre toute tentative de "rébellion" de la part d'un pays (e.g., Danemark qui commence à passer une partie de son administration sous Linux ) ou d'acteurs économiques majeurs.
Pas aussi sur que toi : J'ai pas l'impression que Trump et son équipe aient le moindre intérêt pour le "soft power" qu'amène cette hégémonie technologique - il semble plutôt nostalgique de la guerre froide et de la confrontation claire & nette. Pour l'Asie, je ne suis pas certain que ce soit pertinent: La chine est déjà blacklistée , et les autres pays asiatique, entre le piratage et le mépris raciste dont trump fait preuve...
Par contre effectivement, les GAFAM, eux, pourrait fortement objecter au principe, car eux travaillent sur le temps long. Toute la question est de savoir si ces GAFAM et leurs patrons vont aller contre les directives Trumpistes, malgré les conséquences personnelles pour eux - Trump a montré qu'il jouait sans vergogne de sa position et de son influence contre ceux qui lui tenaient tête.
Je ne suis pas d'accord que ce serait une "déclaration de guerre": Pas d'armes , pas de morts, juste du business , et une dépendance néfaste auto-infligée des pays européens. La dessus, on peux en vouloir à trump, mais on peux aussi s'en vouloir à nous-même de ne pas avoir développé d'alternatives crédibles .
Mon hypothèse pour les GAFAM reposent sur le fait qu'une tel action leur ferait perdre énormément d'argent, pas uniquement à eux mais aussi à d'autres grands et puissants dont Trump a besoin (dont les banques, des soutiens politiques, lobbys...). Si demain Trump ordonne de mettre à genoux l'UE, l'économie américaine part en miette également dans la foulée avec une perte totale de confiance envers les US.
Et ça, Trump n'en veut surtout pas car ce n'est plus MAGA.
Des morts il y en aura. Imagine les hôpitaux qui tournent sous Windows, les administrations, les infrastructures diverses et variés. Oui il y en aura. Pas beaucoup, et moins que la foule en colère qui va aller régler ces comptes avec l'UE mais il y en aura. Déclaration de guerre est mal choisi. J'aurais du écrire casus belli.
Il y a Google suite, AWS, Microsoft Office 365 , Android, iOS. Paralyser les avions c'est un épiphénomène quand t'a réussi à bloquer toute l'informatique d'un pays, voire d'une union européenne. Même pendant le COVID, on pouvait plus bouger mais on pouvais encore faire des confcall....
J'en suis presque à me dire qu'il faudrait que trump mette sa menace à exécution, puisque apparemment, il n'y a que quand on est devant le mur qu'on voit le mur. En terme économique, le covid à coté ce sera un enfantillage. Alors certes on se relèvera. Non sans mal. Mais ce sera quelques semaine pas facile au quotidien.
Il ne le fera pas. Pour deux raisons majeures : Premièrement, ça pourrait s'apparenter à une déclaration de guerre. Deuxième raison : Les GAFAM sont signent leur arrêt de mort. S'il fait ça, plus aucun pays ne fera confiance à Google, Amazon ou autres. Alors pour l'Europe c'est mort car nous sommes la putain des états-unis, mais l'Asie sera développé des alternatives rapidement.
En général, on ne compare pas directement la consommation. Mais la consommation/FLops par exemple pour apprécier une possible ou non augmentation de sobriété entre deux générations.
Ce n'est pas une question d'histoire. Microsoft ne perdra que très peu dans cette affaire.
Son image est déjà ternit chez les techos (les mises à jour bancal, l'OS en carton...) mais ce n'est pas eu qui prennent les décisions. Rien que sur le plan technique, on devrait virer MS des boîtes. Rien que sur le plan de l'espionnage économique, MS devrait être minoritaire en entreprise. Rien que la menace des US sur nos "valeurs européennes", MS devrait être banni. Et sur le plan de l'économie, filer de la thune à des boites françaises ou européennes pour nos systèmes d'informations serait nettement plus bénéfique (Dommage que nos énarques et élites soient trop intelligentes pour s'en rendre compte.)
Mais voilà, les mecs des pseudo-écoles de commerces qui dirigent, eux ils pensent MS. Non pas pour la technique, mais parce que MS leur vend un contrat de "non-responsabilité". Si demain, une MAJ de MS foire leur business, ils peuvent attaquer MS pour demander des réparations. Et le "C'est pas faute d'avoir choisi MS" ne leur sera jamais reproché. Pratique, non ?
N'oublie pas qu'à partir d'un certain niveau hiérarchique dans une entreprise, ce n'est plus la compétence technique qui compte. Tu peux vouloir déployer un super truc qui respecte les normes de sécurités, qui préserve les intérêts de l'entreprise contre l'espionnage économique ou simplement utiliser la bonne techno pour un projet. Si jamais tu fais chier quelqu'un (et ce quelqu'un c'est un de n00b qui serait même pas branché sa souris) ou qu'une panne survient, on sera te trouver pour le goudron et les plumes. Et si tu réussis, personne ne viendra te féliciter ou de te remercier. Alors l'expérience t'apprends qu'il vaut mieux faire de la merde et pouvoir dire "C''est pas ma faute". Ou sinon accepter de travailler dans des boites où le faible niveau de hiérarchie empêche/retarde l'apparition de ce genre de phénomènes.
Pour en revenir à MS sait qu'il a rien à perdre en terme d'image. Il a déjà énormément gagné ! Un terme de contrat d'espionnage et de renseignement (imaginons un instant si MS pouvait faire la même chose mais un pays européen... C'est pas comme si toute nos données n'étaient pas d'une manière ou d'une autre chez eux....). En terme de compétence technique, J'ignore si on connaît le prix payé par l'armée d'israélienne, mais ça doit faire du fric. Sans parler du fait que ce contrat a peut-être permis à MS de pouvoir accéder à d'autres marchés internes en Israël.
Si l'attaquant dispose de la clé privée, tu as besoin de sa clé publique pour déchiffrer le message.
Euh non, c'est la clé privée qui sert à déchiffrer et la publique sert à chiffrer. Et il est difficile de savoir à quel moment la privée se serait faite voler à moins d'avoir un très bon audit sur leur usage. Le renouvellement régulier reste une bonne pratique, mais il reste une surface d'attaque sur la période où le couple de clés publiques/privées ont été utilisées pour chiffrer. Après, une passphrase reste essentielle dans tous les cas pour restreindre le risque qu'elle soit utilisable en cas de vol.
PS : Oublie le RSA et favorise les courbes elliptiques.
C'est juste un abus de langage de ma part par habitude pour parler de chiffrement asymétrique.
Yep, my bad. Je me suis embrouillée dans ma phrase sur privé/public. Merci de l'avoir relevé !
Et environ tout les 3 mois, nous devions renouveler nos clés PGP et détruire les anciennes. Est-ce que ce genre de pratique peut-être considérée comme un ersatz de confidentialité persistante ?
PGP a beau avoir un mécanisme de révocation (via la génération d'un certificat), si la clé RSA privée est volée elle restera utilisable à ma connaissance. Je doute que l'attaquant s'amuse à synchroniser depuis les annuaires GPG dans lesquels on peut publier l'annonce de révocation.
Il lui manque ce mécanisme de "synchro" comme on a avec les CRL sur les certificats TLS par exemple.
Il me semble qu'une clé publique expirée ne peut plus être utilisée pour chiffrer, mais une clé privée peut continuer de déchiffrer.
Et si la clé privée est détruite avant d'être volée, les e-mails précédemment chiffrés sont indéchiffrable en temps raisonnable. C'était ceci le mécanisme de sécurité.
Si l'attaquant dispose de la clé privée, tu as besoin de sa clé publique pour déchiffrer le message. Cette clé est récupérée les annuaires. Donc si l'annuaire t'informe que la clé est révoquée, bah tu peux commencer à te poser des questions.
PS : Oublie le RSA et favorise les courbes elliptiques.
Et pourtant c'est bien le cas, la confidentialité persistente n'a qu'un seul usage : protéger les conversations passées en cas de compromission d'une des clés privées (ex : DH en tls et ssh, signal/whatsapp, wireguard etc.). Il faut imaginer que tu peux te trouver durablement dans un environnement où le réseau est écouté passivement avec un tap (réseau public, d'entreprise, enregistrement par un gouvernement etc.) ce que j'inclus dans la notion mitm mais effectivement ça ne peut pas protéger contre un mitm actif (proxy transparent avec réécriture tls).
Donc en résumé en PGP si ton terminal est saisi avec ta clé privée tous les échanges passés interceptés sont déchiffrables. En DH, whatsapp/signal, wireguard et sûrement d'autres, même avec la clé privée ce ne serait pas possible.
Dans une vie antérieure, j'ai bossé dans un coin où certains des échanges d'emails ne pouvait se faire qu'avec PGP.
Et environ tout les 3 mois, nous devions renouveler nos clés PGP et détruire les anciennes. Est-ce que ce genre de pratique peut-être considérée comme un ersatz de confidentialité persistante ?
PGP est complètement obsolète pour protéger les communications puisque il ne propose pas la confidentialité persistante, raison pour laquelle PGP est essentiellement utilisé pour signer des documents de nos jours (un peu utilisé également pour signer des commits ou des clés de d'autres utilisateurs). Il vaut mieux utiliser Signal ou tout équivalent pour ce genre de chose.
"Chacun doit comprendre comment ça fonctionne. Sans ca, nous serons toujours à la merci d'autrui en utilisant un produit "tout en un" et ses limites inhérente" Bon alors si chacun doit comprendre tu élimines à peu près tout le marché de la communication numérique, et je ne vois pas comment ne pas utiliser un produit sans être "à la merci d'autrui" à moins que chacun développe sa propre implémentation.
"des messages postés dans une blockchain" de quoi parles-tu ?
En ce qui concerne PGP pour le RCS/MMS j'aimerais bien que tu nous précises quelle implémentation le permet parce que je n'en ai jamais entendu parler (et c'est accessoirement complètement con comme approche).
Bref, tout cela nous montre bien qu'il vaut mieux arrêter le hakik.
Corrige-moi si je me trompe. La confidentialité persistance provient du fait que lors de l'établissement d'une session de communication (TLS, Signal...) une paire de clé de session entre également en jeu afin de garantir la confidentialité de l'échange même si les clés d'une des deux parties sont compromises.
Comme PGP n'inclut pas cette notion de session (car indépendant du canal de communication), cette confidentialité persistance disparaît, c'est bien ça ?
Ça tombe bien, j'en ai écris un, pour Linux mais Windows tourne aussi sans soucis, et j'ai rajouté un tuto OpenWRT pour l'accès distant via un VPN, et un script pour le wake on lan sur VM ! => https://forum.proxmox.com/threads/gpu-passthrough-with-nvidia-in-linux-vm-improve-stability.166766/
Petit détail si c'est pour jouer sous Linux, les drivers Nvidia supportent désormais Wayland, mais ce support est instable, parfois le GPU se retrouve comme déconnecté et il faut rebooter la machine quand ça arrive car les applications considèrent que DX11/12/vulkan ne sont pas supportés...
En repassant sous Xorg, je n'ai plus eu de soucis.
Parce que tu pense que vu l'enjeu pour Supermicro, ils vont confirmer cette info ? C'est être bien naïf de le croire.... Et non, pour un fondeur, ce ne serait pas si compliqué que tu le pense, on ne parle pas d'intercepter des signaux CPU mais des signaux réseau. Néanmoins, je t'accorde bien que sans preuves irréfutables, ça reste de la mythologie mais ce ne serait pas surprenant.
Pour intercepter les signaux réseaux (couche 1), il faut que physiquement des pistes de la CM connecte le GPU avec la puce réseau. Ce n'est alors plus du ressort du fondeur mais du concepteur de la CM. Et à la différence de l'hypothétique micro-puce espionne, c'est quelque chose qui peut facilement se vérifier, soit par un examen visuel soit par un passage au rayon X. Le dernier pouvant difficile à se procurer pour un particulier, mais clairement pas pour une boîte privée.
Elle répondait à un des points que j'évoquais pour la localisation avec de très bons arguments qui s'ajoutent à ceux que j'avais déjà émis de mon côté.
Quant à la localisation par IP, je l'avais aussi évoquée et rejetée car facile à tromper. Depuis quand un driver qui ne gère pas une carte réseau ou Wi-Fi a accès à l'adresse IP de la machine sur laquelle il tourne ? Et depuis quand un driver communique-t-il sur Internet avec un serveur ?
Il suffit que ton driver créer un processus en user-space, qui lui se connecte à un serveur du fabricant, et renvoie l'information au driver (ioctl), non ?
Tu peux même aller plus loin en imaginant la possibilité pour le firmware du GPU de communiquer via la pile réseau de l'UEFI, et ceux en dehors de tout contrôle sur de l'OS. (Un peu à la manière du IME chez Intel ou PSP chez AMD).
Mais comme tu l'as démontré, c'est facile à contrer.
Vous cherchez trop compliqué, et un tel récepteur serait très visible au microscope. Non si ces fonctionnalités existent ça ne peut être que dans le driver en communication avec des serveurs chez nVidia qui stockent un historique de localisation par IP, avec un identifiant unique par carte, avec possibilité pour le serveur de demander un blocage que le driver fait suivre à la puce qui se bloque alors définitivement (voire se détruit partiellement).
La puce peut aussi forcer cette connexion aux serveurs régulièrement pour éviter qu'on modifie le driver pour qu'il ne le fasse plus, en demandant au serveur la résolution d'un challenge cryptographique par exemple. Enfin tout ça n'est pas très discret côté trafic réseau, sauf s'il est déjà attendu que le produit communique régulièrement avec nVidia où ça devient alors planqué dans les fonctionnalités normales, et pourrait aussi se voir aussi dans le code du driver.
L'antenne GPS d'un smartphone fait quelques cm², le die d'une RTX 5080 378 mm². Donc clairement ce ne sera pas integré à la puce, mais sur le PCB du GPU. Et là, il y a deux possibilité, soit il y a un petit module dedié à cette usage, soit une piste de surface jouant le rôle d'antenne. Autant dire que c'est visiblement à l'oeil nu.
Après comme le truc n’a pas besoin d’avoir une précision dingue, il y a peut être des techniques qui permettent une localisation dégradée ?
La localisation dégradée dépendra principalement du nombre de satellite "vus" par la puce pour faire son calcul, de la distorsion du signal reçu (en plus des perturbations ionosphériques et atmosphériques il faut ajouter l'atténuation du signal lié aux bâtiments de ton DC, puis ton rack, puis du radiateur et enfin à la puce).
Mais même sans ça, l'antenne qui servira à la réception de ton signal GNSS va se trouver dans un environnement électromagnétique intenses (les cartes graphiques tirent beaucoup d'ampères, les VRM sont très près du GPU et le rayonnement est à large bande). Je serais étonné qu'une puce GPS soit capable de localiser correctement une cible dans ces conditions. Pour rappel, la puissance au sol reçu par une antenne GPS est ~ -130 dBm en "free space".
Je viens de faire l'expérience. J'ai mis mon téléphone en mode avion avec uniquement le GPS activé. En dehors du boîtier (de type "aquarium") de mon PC, j'ai ~ 18 satellites. A l'intérieur, plus que 8. le téléphone est placé sur la carte graphique. En idle, vaguement 1 satellite (en fait ça saute). Dès que je lance un truc qui tire un peu sur le CPU (testé avec un code de simu multicores) ou je tire sur le GPU (jeux vidéos, hashcat) on tombe à net à zéro.
Sais-tu où peut-on trouver un bon tuto pour le gpu passthrough ?
Actuellement, j'ai une RX 9070 et j'ai récupéré une RTX 2080 d'un pote qui allait la mettre à la poubelle. Je me dis que je pourrais me monter une machine pour jouer avec la RX 9070 et en parallèle utiliser la RTX 2080 pour LLM local ou de la FEM.
GNSS dans un GPU, c'est peut-être même pas viable vu l'environnement électromagnétique à proximité de la carte ou au sein de la puce avec les puissances qui sont enjeu. Sans parler du fait qu'un rack (ou une tour) suffit déjà à faire perdre la tête à un GPS.
- D'un côté, c'est essentiel de mettre des barrières aux mineurs
Tu énonce cela comme une évidence, mais il y a un vrai débat de fond qu'il est possible d'avoir sur ce point. Ce n'est pas une évidence qu'il faille interdire l'accès aux mineurs.
Si on doit leur interdire l'accès, c'est qu'il y a une faille avant. Soit c'est la régulation des sites pornographiques qui est trop poreuse et laisse passer des choses qui ne devraient pas être là (représentations sexistes de partout, simulations de viols, etc.) Soit c'est le système éducatif qui failli.
C'est exactement le même débat que l'interdiction des réseaux sociaux : on a pas réussi (après, est-ce qu'on a voulu ?) à réguler les réseaux pour que ce ne soient pas les poubelles de l'humanité comme ce qu'ils sont actuellement, et le système éducatif n'est pas en capacité de former décemment, donc on interdit aux mineurs de les visiter.
Quand on pose ce constat, et qu'en plus on pose celui que l'interdiction des sites pornos/des réseaux sociaux pose énormément de soucis de vie privée et de souveraineté. Peut-être qu'ils y a d'autres moyens d'arriver au même résultat que d'interdire ?
Ah non, j'oubliais, si on régule alors ça fout toute l'économie par terre C'est vrai, il vaut mieux cacher les yeux de nos enfants jusqu'au jour de leur 18 ans avant de les jeter tête la première dans l'horreur qu'on a laissé se construire.
Méthode de facilité, tout cacher sous le tapis jusqu'à la majorité.
Il n'y a aucune volonté de nos politiques actuels à vouloir des jeunes éduquées, ça nuirait à la société de consommation avec des consommateurs éclairées, ça nuirait aux business des journaux mainstream avide de sensation que d'information, ça nuirait aux politiques de ne plus pouvoir jouer sur l'émotion pour se faire élire, ça nuirait aux lobbys...
Les politiques français s'inspirent d'une vieille idéologie US qui peut se résumer par 20% de cerveaux pour diriger le pays, et 80% d'idiots pour consommer...
Fun fact rigolo, on peut noter dans les deux pays que le 80% est poreux avec le 20%... Chacun en tira sa conclusion propre.
Les US veulent/besoin que l'EU reste dans son giron, dans sa sphère d'influence pour des raisons économiques, politiques mais aussi militaire. Alors même si un jour l'EU est en bankroute (ce qui n'arrivera jamais sauf à considérer des situations extrêmes du genre invasion alien ou méteorite), nous aurons toujours les moyens, même si dans un pis scénario, nous devenons un état des US.
Java, parce que c'est un écosystème pratique à déployer, maintenu, portable, cadré, qui consomme peu de ressources, et sur lequel on a facile à trouver de la main d'oeuvre.
Tu aurais vu quel langage concurrent? * Python: un enfer à maintenir - peu portable (les dépendances utilisent des exécutables liés à l'OS, donc certaines bibliothèques fonctionnent sur Windows pas sur linux et vice-versa, ou sont incompatibles ARM) * Javascript: peut être consommateur de ressources si mal utilisé * Rust: pas assez de main d'oeuvre, complexe pour les tâches complexes * C: non * C++: peut-être, mais: lequel???
Pour le C++, tu commences uniquement à partir du C++20. Si tu souhaites utiliser les ranges ou du sucre syntaxique pour des opérations de logiques booléennes alors le c++23.
+1 avec @, une archive avec un MDP et chiffrement des noms de fichiers, ça suffit pour juste empêcher d'ouvrir. Chiffrer toute la data c'est long, et je le fais que quand c'est nécessaire.
De toute façon, le but est de rendre le contenu pas lisible, je doute que l'on bruteforce le contenu - il y a tellement ailleurs et en clair...
ça ne suffit pas forcément car comment en pratique les données sont protégées ?
A une époque, le mot de passe d'un zip pouvait simplement se retirer avec un éditeur hexa pour rendre l'archive lisible --> Ce qui signifie que les données étaient en clair et que le mot de passe était uniquement là pour le fun. La seule protection c'est le chiffrement des données en elle-même.
Tiens ça amène la question : c’est long de chiffrer plusieurs giga ? Car c’est l’usage de ce service en général
Non ce n'est pas long. De nos jours, les processeurs depuis Skylake (2015) pour Intel et Bulldozer (2011) pour AMD disposent de circuits spécialisées pour le chiffrement AES. Le bottleneck aujourd'hui c'est plus le débit du disque.
Ce qui est dommage et bien relevé dans l'article c'est toujours la dépendance à Taiwan pour la construction, au final je pense qu'il est "mieux" d'avoir les fonderie que d'avoir la propriété intellectuel, qui ne sert à rien si on ne sait pas les fabriquer... D'ailleurs Trump ne s'y trompe pas en "obligeant" les entreprises à recommencer à produire aux USA.
C'est quand même dommage de mettre 300 millions sur la table et de n'avoir "que" un design de processeur, alors qu'on a déjà des entreprises en Europe qui le font déjà (ARM, pour commencer).
C'est surtout dommage de ne pas avoir amélioré le processeur pour être un poil plus utile dans les usages HPC. Reprendre une base ARM mais sans visiblement l'améliorer encore un peu pour les calculs qu'on retrouve en HPC, c'est juste acheté un processeur sur étagère et mettre un tampon "Made in France".
Ou alors ca lui permet de poser ses fesses dans le canapé pour consommer du Netflix
Je dis ca en étant pour le télétravail ! Mais il est vrai qu'il y a une meilleure réactivité, de meilleures interactions (pro et sociale) en étant proche les uns des autres qu'à distance.
Dans le cas de Free, 8 jours, ce n'était pas encore énorme, je trouve.
Exactement. Consommé du Netflix pendant une réunion inutile où des managers se "branlent" entre eux. En fait, dans une tel situation mon canapé et NetFlix sont salvateurs.
Perso, c'est l'effet inverse pour moi. La réactivité est meilleure en TT car tu n'as pas le bruit ambiant, les "parasites" et que, les gens qui te contacte ont réellement besoin d'avoir une info/avis/conseil après avoir cherché de leur coté. Et par ricochet, les liens sociales sont de meilleurs qualités car tu es moins énervés.
Après, il faut savoir que mes collègues de travail je m'en fiche largement là où je bosse. Je fais ce qu'il faut pour éviter une ambiance toxique.
Il manque quelques détails : - Près d'un tiers des personnes dans le monde n'ont même pas accès à internet. Alors Siri, l'IA et Big Brother... - On estime à 7,1 milliards le nombre de smartphones utilisés dans le monde (oui, vu que certains en ont plusieurs...) - Suivant tes données (que j'ai évidemment pas vérifiées), ramené à la personne chaque smartphone devrait donc analyser 18 000 mots en 2h . Or, rien que l'actu ci-dessus contient 2 423 mots, donc ça ferait l'équivalent de 9 actus à analyser toutes les 2h, ça semble toujours impossible qu'une IA fasse un résumé de 9 actus sur un laps de 2h et transmette 10Ko de données à un serveur ?
Les outils qui écoutent et font des par IA, ça existe déjà et ça fonctionne pas trop mal (j'ai fait le test avec un client sur une réu Teams).
Si on prend la fonction "Recall" de Windows, c'est déjà aussi un peu l'enjeu, avec le visuel cette fois-ci : à chaque nouvelle action, on l'enregistre (stockage de screenshots), on l'analyse (OCR+IA) et on en tire une conclusion pour permettre une recherche ultérieure. La différence c'est que c'est conçu pour aider l'utilisateur, mais ça pourrait très bien envoyer un récap quotidien pour dire qu'aujourd'hui t'as passé beaucoup de temps à parler d'IA sur Next, donc qu'une petite pub pour un moteur d'IA serait pertinent.
Avec les NPU embarqués et des puissances d'analyse "on device" en pleine explosion, on pourrait donc à peu près imaginer que ça va devenir largement possible qu'une IA écoute toute une journée et génère une synthèse qu'il transmet à un serveur. En revanche, à date clairement non, en tout cas pas de façon secrète : trop énergivore pour la batterie (si traitement IA on device) et trop peu discret pour le volume data pour un traitement externe (sans parler de l'impact batterie de la sollicitation permanente du modem, qui reboucle avec le premier point).
Et comme tu l'as dit : pour quoi faire ? Les données déjà disponibles sont déjà tellement exploitables que ça n'a pas grand intérêt que d'aller exploiter la dernière blague de la machine à café. Quand t'as cherché spontanément sur Gemini Live en mode vidéo "c'est quoi ce gros bouton sur mon schtroumpf" il y a deux semaines, je vois pas pourquoi ils iraient s'embêter à t'écouter frauduleusement en parler avec ton médecin.
"Et comme tu l'as dit : pour quoi faire ? Les données déjà disponibles sont déjà tellement exploitables que ça n'a pas grand intérêt que d'aller exploiter la dernière blague de la machine à café. "
Il n'y a rien de rationnel dans ce comportement à vouloir tout écouter/stocker. Le comportement est simplement d'avoir le max de données est ensuite on voit comme on peut en faire quelque chose, surtout du profilage marketing. La raison est simple, s'il ne le font pas un autre le fera et ils se feront distancé. On est dans une fuite basé sur de la spéculation. Mais ça fait vendre, et ça ramène de l'argent. Donc c'est bon pour le business.
En outre, tout enregistré est aussi utile pour récupérer des informations sensibles à usage d'espionnage économique et industrielle.
En fait c'est largement possible. Dans une autre vie, j'ai bossé sur la conception d'un algo pour détecter des patterns particuliers de signaux EM en temps réel. Nous n'étions pas interessé pas dans l'ensemble du signal mais seulement à detecter des comportements particuliers.
L'algo consistait en grosso modo à découper le signal, calculer son spectre, faire une décomposition "chromatique", à l'encodé d'une certaine manière pour le rendre compatible avec le calcul de la distance Hamming par rapport à des patterns de référence. On stockait le tout dans des structures probabilistes type filtre de Bloom. ça tournait en continu sur un petit Intel Atom et ça traiter s'en broncher ~20 Mo/s.
Alors avec les SoCs d'aujourd'hui qui ont des GPU integrées voir des DSP, je pense sincèrement que c'est largement possible de tout écouter. Pas de tout stocker, mais de stocker l'essentiel.
925 commentaires
Modifié le 10/12/2025 à 18h37
Et pour une assistance de l’ambassade... Ah moins d'être mieux classé qu'un lambda, je te conseille de compter sur elle quelques heures/jour après ton "enfermement" dans une "cellule" de l'aéroport. (Et ceci, si elle apprend ton existence).
Non, crois-moi, il est préférable d'expliquer ton pseudo que de jouer au con avec eux.
Le 03/12/2025 à 18h50
Si oui, existe-t-il un document qui permet de donner les règles à suivre en terme d'écriture ?
Modifié le 04/11/2025 à 21h08
A la différence de beaucoup de français, j'ai vécue au Japon et comme certains ici je suis tombée sur ce "concept" là-bas. J'avoue ça m'a fortement perturbé puis au final je me suis rappelé que la pédophilie dans les Églises, l'enseignement catholique et ainsi de suite... pour finalement me convaincre (à tord ou à raison) que si ça permet d'éviter que de vrais enfants souffrent, c'est mal pour un bien. Est-je tord ? Je ne sais pas. Mais tant que je serai toujours choquée/outrée par ça c'est que l'esprit est sain.
ça ne veut pas dire que je trouve admissible qu'en France de tel chose soit disponible à la vente !
Et oui, malheureusement pour les enfants, tout les pays ne partage pas la même vision des choses que nous. En 2025, il vaut mieux être un enfant née en Europe (et encore pas dans n'importe quel pays non plus) qu'en Asie, en Afrique ou en Amérique.
Modifié le 04/11/2025 à 21h19
Ce qui me fait drôle, c'est qu'on a pas fait tout un foin pour Betharam (qui n'est qu'un iceberg). Je n'ai pas souvenir d'avoir entendu Mme El Haïry monté au front lors que le scandale à éclater, ni même à mettre la pression sur les écoles catholiques ou l'Eglise.
Quand au ministre de l'économie qui menace
Le 04/11/2025 à 20h47
Le 04/11/2025 à 20h41
Il est indéniable que Rust a montré une voie interessante pour le futur sur le safety memory. Pourtant, il n'a pas vraiment pris. Python a été adopté bien plus rapidement que lui et sa popularité mesuré par TIOBE montre qu'il diminue de plus en plus, au point d'être derrière l'assembleur et même Ada.
Rust pour le bas niveau, on attend toujours un vrai truc. On n'a toujours pas de vrais drivers Linux pour des composants critiques, beaucoup sont en dev mais toujours pas de cas concrets sur des éléments comme le PCI-E, le scheduler, le RDMA... ça ne veut pas dire qu'il n'y a pas de petite pétite comme Redox.
L'autre soucis de Rust, c'est sa librairie extrêmement pauvre. On peut rien faire de sérieux avec sans devoir passer du temps à chercher à trouver une crate. Certes c'est une feature mais pour un langage qui vise le bas-niveau, je suis pas convaincue du tout. C++, avec ses qualités et ses défauts, fait largement mieux.
En terme pro, dans ma boîte malgré que Rust était bien positionné pour un projet le fait devoir utiliser cargo avec ces 1000 et 1 dépendances nous a finalement fait préféré le Go.
Un autre également soucis de Rust, c'est son temps de compilation. On gagne en sécurité mémoire à l'écriture, soit. Mais si on perd un temps fou à compiler. Autant le C++ n'est pas memory safety, mais avec les sanitizers de LLVM de nos jours on arrive à un code en pratique sur (contre une sûreté théorique, même si loin de Ada/SPARK).
Je ne partage pas l'avis pour le parallélisme. Le parallélisme de Rust c'est vraiment limité et on le sent sur les performances, dès qu'on commence à faire des choses un peu bourrines (e.g., calcul matriciel en pure Rust.).
Je veux bien croire que ce soit pratique pour Firefox mais pour du code de calcul non merci Rust. Et qui à binder avec des lib éprouvées en Fortran (mais alors elle est où la safety memoire temps vendu) autant faire des langages réellement utile.
Enfin la syntaxe de Rust, que je trouve à titre personnel, un mélange batard entre du fonctionnel et du LLVM IR. Mais je suis d'acoord avec l'auteur. Pour peu qu'on est un LLM sous la main, Rust devient facilement utilisable. D'où la question de l'intêret de langage ? Un langage fait pour des IA me parait un pari risqué pour le langage lui-même (vu le rejet général de l'IA) et pour certains secteurs industrielles.
Et c'est là que j'explique la faible popularité de Rust. Clairement les offres d'emplois ne se bouscule pas sur Rust. Si je prends le site WelcomeToTheJungle, il y a une 20 d'entreprises qui utilisent Rust contre plus de 330 pour du C++, et encore plus en Python.
Je comprends le besoin de sûreté mémoire, surtout pour des éléments critiques comme des drivers. Par contre, pour du ferroviaire ou de l'aéronautique, bah Ada fait le café non ?
En fait pour moi Rust trouve difficilement une place car d'un coté le C++ est bien implémenter et, autant je suis d'accord avec l'auteur Rust-> C++ c'est ok mais pas l'inverse. De l'autre les industries doivent apprendre une nouvelle stack et avec libs à faire certifier (par exemple FIPS pour le chiffrement), une maigre librairie standard, et le besoin de Cargo (pas forcément un truc acceptable dans des endroits sensibles comme la défense et la sûreté) où le C++ règne fortement et Ada également.
En fait Rust me fait penser à Scilab en enseigne universitaire. De bonnes idées, mais développer par des PhD en info pour des PhD en info. Résultant les enseignants et les étudiants préfèrent Matlab : une syntaxe claire, une document facile à trouver, et on peut réellement se concentrer sur le pourquoi du problème que de ce demander ou mettre cette fichu flèche, crochets ou autre symbole estorérique.
Ce n'est pas un commentaire anti-Rust. J'ai codé en Rust depuis ma dernière intervention dessus. Mais honnêtement dans mon porte-folio de langage (asm, Ada, C et co) je ne vois pas l’intérêt de Rust pour de réels usages industriels. Même en IA Rust ne fait que binder les lib en C ou CUDA. Et vu le temps de compilation Python est largement plus utile niveau rendement et fiabilité (vu l'usage intensif de ces codes, on l'aurait vite vu si il y a avait de graves bugs mémoires).
Si quelqu'un veut en discuter, c'était mes 2 yens.
Le 30/10/2025 à 19h08
Le 28/10/2025 à 18h46
Son deuxième atout, c'est son aspect "glue". Python comprenant parfaitement l'ABI C, il devient alors très facile de compenser ses faiblesses notamment la performance. Et c'est pour ça que tu le retrouves dans le traitement de données divers et variés, l'IA ou encore la simulation numérique.
Python gluant du C/Fortran/C++ permet d'avoir un langage simple à utiliser et structurer (Python c'est peut-être des scripts, mais il s'est faire de la fonctionnelle et de la POO ce qui aide à produire du code clair et maintenable) et des librairies performantes pour les tâches nécessaires.
Tu mentionnes l'IA. Si tu as codé de l'IA en bas-niveau (C++ avec programmation GPU) tu sais à quelle point c'est fastidieux. Et quand tu veux, par exemple, entraîner un CNN tu n'as pas envie de faire passer 1 semaines à coder ton pré-processing sur des images en C++ surtout pour des tests, le temps d’ajuster les hyper-paramètres...
Et Python te permet justement ça. Tu laisses la performance à des gens expérimentés et qui aiment l'odeur du silicium et du germanium, et l'aspect plus "haut-niveau" à des personnes plus à l'aise avec les notions d'un CNN que de savoir comment tu vas découper tes images pour entraîner/inférer.
Les cas à la marge où cette approche n'est pas possible sont très minoritaires et, de toute façon accessible à seulement des gens expérimentés et avec les connaissances soft & hard nécessaire. Et ce genre de profil ne court pas les rues, ni les boulevards.
Le 27/10/2025 à 21h33
Alors certes tu as des idiots, mais d'expérience faut regarder la chaîne de commandement.
Modifié le 22/10/2025 à 19h03
Le 22/10/2025 à 19h00
Le 17/10/2025 à 10h10
Si les GPUs ont plus de coeurs qu'un CPU, mais les coeurs d'un GPU sont nettements plus simple d'un point de vue architecturale. Par exemple, les mécanismes de scheduling au sein d'un CPU sont nettement plus complexe que ceux dans un GPU. Également, les mécanismes de prédicat de branchement sont inexistant. D'ailleurs les GPUs n'aiment pas les sauts conditionnels, surtout lorsque celui intervient dans le calcul. C'est moins embêtant lorsqu'on fait par exemple du reduce, et que le saut conditionel a vocation a mettre idle d'autres threads que le principal.
Là où je tique beaucoup plus c'est la notion de parallélisme donnée par Google. Soyons plus précis, le parallélisme dans un GPU n'est pas le parallélisme dans un CPU au sens où plusieurs coeurs d'un CPU peuvent travailler sur une matrice ou autres structures de données.
Le parallélisme dans un GPU est assez proche du "parallélisme" SIMD d'un coeur CPU, i.e. la possibilité de pouvoir effectuer une même opération (addition, multiplication, bit shift...) sur plusieurs données en même temps au prix d'un temps équivalent à la même opération en scalaire. En réalité, un GPU est plus SIMT que SIMD mais passons.
Par exemple, si je fais 3.14f*x (x est un float 32 bits) sur un Zen 2 tournant à une fréquence nominale de 4 GHz, ça prend 1 ns.
Si maintenant je fais 3.14vx (vx est un tableau/vecteur de float 32 x4 [4 car 432=256 bits -> AVX256]), je peux effectuer en 1 ns 4 opération sur mon vecteur, qui peut par exemple représenter les canaux rgba d'une image.
Et à ce jeu là les GPUs sont terriblement redoutable. D'où leur utilité pour les IA, le calcul matriciel (simulation, image processing...) et autres domaines où les algorithmes peuvent être pensés pour s'implémenter avec ce genre de possibilité matérielle.
Au final, le parallélisme d'un GPU n'est pas celui d'un CPU au sens commun du terme. Ce qui le décrit mieux est l'aspect vectoriel des unités SIMD (MMX, SSE, AVX, AMX...) du CPU dont le parallèle avec le GPU est nettement plus direct.
Mes 2 cents.
Le 16/10/2025 à 11h15
La seule différence que je vois depuis mon passage de Nvidia à AMD (sous Linux, pas de Windows sauf celui du boulot), c'est uniquement pour les aspects GPGPU.
Le 03/10/2025 à 13h34
Les défis sont du cotés des modifications multi bits (lié à la désintégration nucléaire du rayon cosmique après impact), de la modification en cours de calcul d'un bit.
L'autre défi est la capacité des circuits à supporter la radiation, car il n'est pas impossible que l'apport d'énergie engendre des réactions nucléaires (et donc modification des éléments chimiques au sein des composants électroniques) tout comme leur destruction/altération définitive.
Le 03/10/2025 à 11h09
Repartir sur une architecture Neoverse qui n'est pas du tout éprouvé pour cette tâche ressemble plus, de mon point de vue, à du pipot pour la levée de fond face à des mecs qui n'ont jamais touché ce domaine. Et à terme, un moyen de survie sans réel atout. Bref, Start-up Nation.
En tout cas, et je leur laisse le bénéfice du doute, si SiPearl arrive à produire un tel CPU pour ce type d'usage et qui est réellement utilisé c'est une bonne chose. Autant pour l'aspect HPC, ils ont raté leur coche (pas d'innovation majeure principalement), autant pour la Défense ça peut marcher.
Le 01/10/2025 à 22h01
Soit je suis en hypocaféinémie (ou en hyperconneriémie) mais je comprends pas du tout cette phrase. C'est quoi le rapport entre des images et un système de fichiers dans ce contexte ?
Le 11/09/2025 à 18h48
Le 06/09/2025 à 10h17
Selon ton navigateur et tes réglages, il supprimera automatiquement cookies, historiques et autres à lors de la fermeture.
Le 30/08/2025 à 18h17
Ici, c'est plus le cas en temps de paix militaire et contre un allié.
Le 30/08/2025 à 11h07
Les européens ne feront rien et Trump ne veut pas de guerre militaire avec nous. Trump veut juste notre soumission, qu'il a déjà eu avec les taxes de douanes.
Pour le reste, Trump veut s'assurer que notre richesse aillent chez lui. Trump veut s'assurer que nous restons ses vassaux, et qu'une partie de notre richesse allaient chez lui. Il ne veut pas quel l'Europe s'émancipe.
Pour moi, ce message est un avertissement clair contre toute tentative de "rébellion" de la part d'un pays (e.g., Danemark qui commence à passer une partie de son administration sous Linux ) ou d'acteurs économiques majeurs.
Le 30/08/2025 à 10h23
Et ça, Trump n'en veut surtout pas car ce n'est plus MAGA.
Des morts il y en aura. Imagine les hôpitaux qui tournent sous Windows, les administrations, les infrastructures diverses et variés. Oui il y en aura. Pas beaucoup, et moins que la foule en colère qui va aller régler ces comptes avec l'UE mais il y en aura.
Déclaration de guerre est mal choisi. J'aurais du écrire casus belli.
Le 29/08/2025 à 20h49
Modifié le 29/08/2025 à 20h44
Le 28/08/2025 à 13h27
Le 21/08/2025 à 18h51
Le 20/08/2025 à 22h42
Son image est déjà ternit chez les techos (les mises à jour bancal, l'OS en carton...) mais ce n'est pas eu qui prennent les décisions. Rien que sur le plan technique, on devrait virer MS des boîtes. Rien que sur le plan de l'espionnage économique, MS devrait être minoritaire en entreprise.
Rien que la menace des US sur nos "valeurs européennes", MS devrait être banni.
Et sur le plan de l'économie, filer de la thune à des boites françaises ou européennes pour nos systèmes d'informations serait nettement plus bénéfique (Dommage que nos énarques et élites soient trop intelligentes pour s'en rendre compte.)
Mais voilà, les mecs des pseudo-écoles de commerces qui dirigent, eux ils pensent MS. Non pas pour la technique, mais parce que MS leur vend un contrat de "non-responsabilité". Si demain, une MAJ de MS foire leur business, ils peuvent attaquer MS pour demander des réparations. Et le "C'est pas faute d'avoir choisi MS" ne leur sera jamais reproché. Pratique, non ?
N'oublie pas qu'à partir d'un certain niveau hiérarchique dans une entreprise, ce n'est plus la compétence technique qui compte. Tu peux vouloir déployer un super truc qui respecte les normes de sécurités, qui préserve les intérêts de l'entreprise contre l'espionnage économique ou simplement utiliser la bonne techno pour un projet. Si jamais tu fais chier quelqu'un (et ce quelqu'un c'est un
Alors l'expérience t'apprends qu'il vaut mieux faire de la merde et pouvoir dire "C''est pas ma faute". Ou sinon accepter de travailler dans des boites où le faible niveau de hiérarchie empêche/retarde l'apparition de ce genre de phénomènes.
Pour en revenir à MS sait qu'il a rien à perdre en terme d'image. Il a déjà énormément gagné !
Un terme de contrat d'espionnage et de renseignement (imaginons un instant si MS pouvait faire la même chose mais un pays européen... C'est pas comme si toute nos données n'étaient pas d'une manière ou d'une autre chez eux....). En terme de compétence technique,
J'ignore si on connaît le prix payé par l'armée d'israélienne, mais ça doit faire du fric.
Sans parler du fait que ce contrat a peut-être permis à MS de pouvoir accéder à d'autres marchés internes en Israël.
Le 18/08/2025 à 18h59
Le 18/08/2025 à 13h37
Si l'attaquant dispose de la clé privée, tu as besoin de sa clé publique pour déchiffrer le message. Cette clé est récupérée les annuaires. Donc si l'annuaire t'informe que la clé est révoquée, bah tu peux commencer à te poser des questions.
PS : Oublie le RSA et favorise les courbes elliptiques.
Modifié le 18/08/2025 à 10h34
Et environ tout les 3 mois, nous devions renouveler nos clés PGP et détruire les anciennes. Est-ce que ce genre de pratique peut-être considérée comme un ersatz de confidentialité persistante ?
Modifié le 17/08/2025 à 10h46
Comme PGP n'inclut pas cette notion de session (car indépendant du canal de communication), cette confidentialité persistance disparaît, c'est bien ça ?
Le 09/08/2025 à 09h55
Le 08/08/2025 à 11h39
Le 08/08/2025 à 11h31
Tu peux même aller plus loin en imaginant la possibilité pour le firmware du GPU de communiquer via la pile réseau de l'UEFI, et ceux en dehors de tout contrôle sur de l'OS. (Un peu à la manière du IME chez Intel ou PSP chez AMD).
Mais comme tu l'as démontré, c'est facile à contrer.
Le 08/08/2025 à 11h26
Modifié le 07/08/2025 à 19h09
Mais même sans ça, l'antenne qui servira à la réception de ton signal GNSS va se trouver dans un environnement électromagnétique intenses (les cartes graphiques tirent beaucoup d'ampères, les VRM sont très près du GPU et le rayonnement est à large bande). Je serais étonné qu'une puce GPS soit capable de localiser correctement une cible dans ces conditions. Pour rappel, la puissance au sol reçu par une antenne GPS est ~ -130 dBm en "free space".
Je viens de faire l'expérience. J'ai mis mon téléphone en mode avion avec uniquement le GPS activé. En dehors du boîtier (de type "aquarium") de mon PC, j'ai ~ 18 satellites. A l'intérieur, plus que 8. le téléphone est placé sur la carte graphique.
En idle, vaguement 1 satellite (en fait ça saute). Dès que je lance un truc qui tire un peu sur le CPU (testé avec un code de simu multicores) ou je tire sur le GPU (jeux vidéos, hashcat) on tombe à net à zéro.
Le 07/08/2025 à 14h51
Actuellement, j'ai une RX 9070 et j'ai récupéré une RTX 2080 d'un pote qui allait la mettre à la poubelle. Je me dis que je pourrais me monter une machine pour jouer avec la RX 9070 et en parallèle utiliser la RTX 2080 pour LLM local ou de la FEM.
Le 07/08/2025 à 14h45
Modifié le 06/08/2025 à 10h00
Les politiques français s'inspirent d'une vieille idéologie US qui peut se résumer par 20% de cerveaux pour diriger le pays, et 80% d'idiots pour consommer...
Fun fact rigolo, on peut noter dans les deux pays que le 80% est poreux avec le 20%... Chacun en tira sa conclusion propre.
Le 04/08/2025 à 18h01
Le 04/08/2025 à 14h56
Les US veulent/besoin que l'EU reste dans son giron, dans sa sphère d'influence pour des raisons économiques, politiques mais aussi militaire. Alors même si un jour l'EU est en bankroute (ce qui n'arrivera jamais sauf à considérer des situations extrêmes du genre invasion alien ou méteorite), nous aurons toujours les moyens, même si dans un pis scénario, nous devenons un état des US.
Le 04/08/2025 à 13h07
Le 19/07/2025 à 12h46
Le 15/07/2025 à 18h57
A une époque, le mot de passe d'un zip pouvait simplement se retirer avec un éditeur hexa pour rendre l'archive lisible --> Ce qui signifie que les données étaient en clair et que le mot de passe était uniquement là pour le fun.
La seule protection c'est le chiffrement des données en elle-même.
Le 15/07/2025 à 18h47
Le 12/07/2025 à 09h18
Le 09/07/2025 à 19h08
Le 24/06/2025 à 22h47
Perso, c'est l'effet inverse pour moi. La réactivité est meilleure en TT car tu n'as pas le bruit ambiant, les "parasites" et que, les gens qui te contacte ont réellement besoin d'avoir une info/avis/conseil après avoir cherché de leur coté. Et par ricochet, les liens sociales sont de meilleurs qualités car tu es moins énervés.
Après, il faut savoir que mes collègues de travail je m'en fiche largement là où je bosse. Je fais ce qu'il faut pour éviter une ambiance toxique.
Le 21/06/2025 à 09h53
Il n'y a rien de rationnel dans ce comportement à vouloir tout écouter/stocker. Le comportement est simplement d'avoir le max de données est ensuite on voit comme on peut en faire quelque chose, surtout du profilage marketing. La raison est simple, s'il ne le font pas un autre le fera et ils se feront distancé. On est dans une fuite basé sur de la spéculation. Mais ça fait vendre, et ça ramène de l'argent. Donc c'est bon pour le business.
En outre, tout enregistré est aussi utile pour récupérer des informations sensibles à usage d'espionnage économique et industrielle.
Le 20/06/2025 à 21h27
L'algo consistait en grosso modo à découper le signal, calculer son spectre, faire une décomposition "chromatique", à l'encodé d'une certaine manière pour le rendre compatible avec le calcul de la distance Hamming par rapport à des patterns de référence. On stockait le tout dans des structures probabilistes type filtre de Bloom. ça tournait en continu sur un petit Intel Atom et ça traiter s'en broncher ~20 Mo/s.
Alors avec les SoCs d'aujourd'hui qui ont des GPU integrées voir des DSP, je pense sincèrement que c'est largement possible de tout écouter. Pas de tout stocker, mais de stocker l'essentiel.
Le 19/06/2025 à 21h52