Les failles Spectre/Meltdown sont couvertes médiatiquement car elles sont quasi impossible à corriger, touchent tous les PC depuis 15 ans et la plupart des smartphones -> surface importante. (intéressant d'ailleurs de voir à quel point Intel semble plus souvent cité qu'AMD, et ARM très très peu cité alors que touché aussi). Par ailleurs, les marques Intel/AMD, le composant CPU sont les éléments les plus parlants dans un ordi - beaucoup de gens ont une compréhension très limitée des autres éléments. On touche au coeur de l'ordi, ça réagit.
Pour les GPU, c'est légèrement différent: les failles sont plutôt logicielles - tant qu'il y a des failles logicielles suffisamment évidentes, peu de chercheurs iront sur le hardware. Je pense que 80-90% des utilisateurs n'ont pas de notion de leur GPU (je ne parle pas de l'audience de next), surtout si on inclut les téléphones (je ne sais pas du tout quel CPU/GPU j'ai dans mon tel par exemple - juste sa capacité de stockage et qu'il est 5G, ça me suffit). Par contre, en regardant les failles GPU sur les pilotes, je me suis aperçu qu'il y en a un paquet pour des GPU Arm, dont certaines très bien notées - avec Android qui ne se met pas à jour c'est tout bénef.
Mais au-delà des GPU, il y aura aussi les NPU, les processeurs TPM, les cartes Wifi, les SSD - nombre d'éléments dans un ordi sont attaquables, et tous ont de plus en plus de traitements "autonome" (il y a des démos de RAM qui traitent les données). Niveau OS, c'est drôle aussi: lors d'un context-switch, il faut pouvoir prévenir les pilotes et cartes que le processus a changé (la 1ère fuite avec les CG, c'était simplement de pouvoir capturer l'écran du processus précédent). Quand les éléments NVMe parleront ensemble ça va être drôle aussi (genre la carte réseau qui cause au SSD sans le CPU...).
Les mécanismes de sécu sont en plus maintenant conjointement implémenté entre le CPU, l'OS et ... l'appli! Ca devient impossible à dire qu'on est sécurisé du coup!
Pour se donner une idée de l'ampleur de bazar, on peut reprendre par exemple la sécurité dans Windows. Il y a quelques éléments plus ou moins cocasses qui sont plus sécurisés que les autres: l'imprimante, le fond d'écran, les sons systèmes :) - car pouvoir d'espionnage ou de nuisance maximum - enfin début 2000 :)
Expérience personnelle: j'ai eu un jour un patch à mettre sur des machines. Le cache des cartes RAID était accessible depuis n'importe quelle VM... Oups!
Quand les éléments NVMe parleront ensemble ça va être drôle aussi (genre la carte réseau qui cause au SSD sans le CPU...).
Ca existe déjà depuis longtemps le P2P sur un bus mémoire (échanges directes entre deux périphériques sans que le CPU ne lise sur l'un pour écrire sur l'autre). Ca permet de gagner énormément en performance et en énergie et les processeurs implémentent une "IOMMU" (ou DVMA, SMMU, PAMU, SR-IOV... selon les architectures et protocoles) pour protéger tout ça et ne laisse discuter entre eux (et aux adresses voulues) que les périphériques autorisés par le système d'exploitation et ses pilotes.
D'ailleurs, l'API DirectStorage de Microsoft permet maintenant aux applications (principalement jeux mais pas que) de programmer des transferts de données d'un SSD NVMe directement vers le GPU. Ce genre de techno était plutôt dans une niche auparavant soit pour optimiser des choses en interne des noyaux soit pour éviter de la fuite/manipulation de données entre VMs sur une même machine (dans le cas où l'hyperviseur donne l'accès direct à un périphérique physique à une VM, sans IOMMU, l'invité pourrait utiliser ce périphérique pour manipuler les données directement en mémoire physique), ou pour restreindre l'accès à la mémoire centrale si un périphérique n'est pas digne de confiance.
Il existe également des API équivalentes côté monde UNIX pour programmer des transferts de données directs entre périphériques (entre deux cartes réseaux ou une carte réseau et un disque).
Je trouve ça dommage depuis le début de leur aventure qu'ils soient partis sur du ARM et non du RISC-V. Après, c'est pas un processeur COTS/pour le commerce (même B2B), c'est un costum chip pour des supercalculateurs européens, ils doivent avoir un cahier des charges long comme le bras et avec une pression de fou (en terme d'objectifs et de délai).
Cela dit, la version précédente était très certainement déjà vulnérable à ces attaques-là et cette nouvelle version corrige tout de même bien d’autres failles. Donc même s’il reste des vulnérabilités connues, cette nouvelle version reste plus sûre que la précédente donc elle est toujours utile, en attend la prochaine version corrigeant ces dernières failles.
Voilà, contribution faite. J’ai pris le pack magazine + stickers et rajouté 5€ de don pour faire un total de 32€ (livraison incluse) comme la dernière fois avec le magazine #3 (parce que vous avec réduit le tarif de cette contribution !!!)
Bon courage à vous, nous sommes tous avec vous !
71% à l’heure où j’écris ce message. L’objectif approche
EDIT: d’ailleurs elle est où la page remerciements sur le site ? Je n’ai pas réussi à la trouver.
Attention à la formulation : “une évolution de la base au niveau de sécurité r62 d’Android 10” laisserait entendre que le système se base sur Android mais c’est faux. Sailfish OS est une distribution Linux et non une distribution Android (lui-même étant un fork de Linux, soit). C’est la base du support des applications Android qui a été mis à jour.
Si je ne m’abuse il y a un rapport 10^3 à 10^4 entre un électron et un proton (ou anti-proton du coup) ce qui rend le poids de l’électron négligeable par rapport à celui d’un proton.
Du coup cet atome hybride “pèserait” environ 50 % de plus qu’un atome d’hélium classique (3 masses de proton au lieu de 2).
Je ne comprend toujours pas pourquoi l’article parle de l’électron au singulier et non au pluriel, l’atome d’hélium devrait en avoir deux (étant donné qu’il y a deux protons dans le noyau)
Du coup, avec le poids de l’électron étant négligeable vis-à-vis du poids du (anti)proton, on devrait même être au double de la masse pour cette atome hybride, non ?
Le
21/03/2022 à
12h
57
(reply:2062415:le hollandais volant)
Importante différence de masse entre un électron et un antiproton mais relativement parlant, ça donne quoi comme différence sur l’ensemble de l’atome d’hélium classique versus d’hélium avec antiprotons à la place des électrons ?
L’accélération matérielle est le fait d’utiliser une unité de traitement dédiée à la tâche en question et non d’utiliser le processeur qui lui reste générique et programmable logiciellement.
Dans le cas de la vidéo, tous les GPUs comprennent une unité de décodage matériel de la vidéo dans différents codecs. L’AV1 étant relativement récent, seuls les GPUs les plus récents sont capables de le décodé matériellement et ont donc une part faible dans le parc mondial.
Les avantages principaux de ce genre d’unité de traitement sont leur faible consommation et leur performance vis-à-vis d’une solution logicielle (étant donné que ces unités ont été spécifiquement conçues pour réaliser cette tâche contrairement aux CPUs). La partie performance permet justement en principe de supporter des formats vidéo (genre de la 4K/8K) que le CPU de la machine ne serait pas capable de décoder suffisamment rapidement pour tenir le framerate de la vidéo (sous condition que le média et le bus mémoire possède suffisamment de bande passante pour alimenter le GPU bien sûr). Même pour les CPUs plus performants, cela permet de dégager de la charge de leur côté pour faire autre chose ; pratique si vous faites autres choses (jeu, bureautique, navigation web, développement…) avec une vidéo YouTube en incrustée ou sur un autre écran par exemple.
Dernier avantage pour le cas du décodage vidéo, ces unités se trouvent dans le GPU, ce qui permet au flux vidéo décodé (qui peut demander énormément de bande passante suivant la résolution) d’être au plus proche de la sortie vidéo à destination de l’écran, économisant beaucoup d’envois de données vers le GPU depuis le CPU si c’était ce dernier qui avait fait le décodage.
Ça fait beaucoup de transistors gaspillés, entre l’AVX-512 et les e-core (sur desktop)…
Les E-cores ont tout de même une utilité et permettent d’économiser de l’énergie lorsque le processeur est peu demandé. Désactiver/bloquer l’utilisation de l’AVX-512 alors que les unités de traitement sont là est un gaspillage pur et dur.
Les unités de traitement AVX-512 sont là, même si ce n’est pas forcément très utile pour le public visé par ces processeurs, c’est trop tard, elles sont dans le design et sont gravées. Et le client les paient tout de même ! La consommation de ces unités de traitement est, certes, importante, mais elles sont très efficaces ! Ça peut provoquer un pic de consommation et de chaleur mais les calculs seront terminés bien plus rapidement et en consommant au final moins d’énergie. Les processeurs sont de nos jours parfaitement capables de s’auto-réguler en cas de problème de chauffe ou d’alimentation, et ce genre d’unités de calculs consomment quasiment 0 (en micro voire nano ampères) lorsqu’elles ne sont pas utilisées.
Ce ne sera pas forcément un mal que Intel retire ces unités de la prochaine gen mais pour la gen 12, elles y sont, on les pait, c’est vraiment un mal qu’Intel bride quelque chose pour lequel le client a payé.
Le
03/01/2022 à
10h
52
qui n’est alors pas toujours bien gérée par les applications.
C’est surtout le rôle de l’OS de faire son boulot et de migrer un thread exécutant une instruction AVX-512 sur un cœur en étant dépourvu sur un cœur disposant de l’instruction demandée. Après, si l’application a demandé à l’OS de n’exécuter le thread en question que sur les E-cores, tant pis pour elle, là ça sera de sa faute et l’OS peut lui envoyer un signal “illegal instruction”.
Je pense que cette histoire est surtout une volonté commerciale d’Intel de garder l’AVX-512 sur ses Xeon et c’est maintenant un bon gaspillage de transistors puisque les P-cores en sont pourtant bien pourvus…
Fort de cette expérience, l’ANFR en déduit « qu’une augmentation du trafic de la 5G conforme à l’indicateur d’exposition introduit par l’ANFR devrait à terme engendrer une augmentation de l’ordre de 20 % sur le niveau global de l’exposition ».
Euh mais à terme, les usagers vont transiter de la 3/4G vers la 5G générant donc du trafic sur les bandes de la 5G mais moins de trafic sur les bandes des 3 et 4G. Est-ce que cela a bien été pris en compte dans leur estimation ?
Bravo aux premiers Pirates membres d’un gouvernement au monde Surtout étonné (mais dans le bon sens du terme) et ravi qu’ils héritent du ministère des affaires étrangères. Autant le premier sur le numérique, c’est leur cible principale (avec le modèle démocratique), autant niveau relation internationale, je ne connais pas leur orientation sur le sujet.
La scalabilité d’un “processeur” ne dépend pas seulement de lui-même mais aussi du logiciel qui l’exploite (aussi bien applicatif que l’OS, et en particulier son scheduler/ordonnanceur), et de la bande passante de la mémoire et/ou du stockage (voire du réseau) si le logiciel en question en demande dans des proportions importantes.
Les Ryzen ont une architecture plutôt straight-forward avec un seul contrôleur mémoire (contrairement aux Threadrippers basés sur Zen1), sous forme d’arbre (contre l’architecture en anneau chez Intel pendant un temps (et peut-être encore aujourd’hui ?)) et pas de partage d’unité de calcul entre cœur comme sur Bulldozer. Il n’y aucune raison que les cœurs en eux-mêmes ne soient pas scalables, à part pour des raisons qui leur sont extérieures : refroidissement insuffisant donc moins de boost, cache L1, L2 ou L3 trop petits pour l’application (juste le L3 sur Zen* qui est partagé entre cœur, L1 et L2 sont dédiés à un seul cœur sur cette architecture) ou bande passante (mémoire, stockage, réseau) insuffisante pour nourrir plus de cœurs.
Et justement dans le cas de l’outil de bench que tu considères, ça doit certainement consommer pas mal de bande passage du stockage et dans une moindre mesure de la mémoire. Fait tourner un test purement CPU et tu verras que les Ryzen sont parfaitement scalables.
Et même dans le cas des Threadrippers en Zen1, si l’application est designée de sorte a prendre en considération l’architecture avec deux contrôleurs mémoires, ça sera tout aussi scalable.
Et enfin, comme l’a dit @David_L, les benchs théoriques sont pas vraiment la réalité. Bien sûr qu’il peut t’arriver de devoir compresser ou décompresser des fichiers ou de faire d’autres calculs parallélisable mais de nos jours, un CPU travaille rarement pour une seule application, tout simplement car on, en tant qu’utilisateur, utilise plusieurs applications en même temps, mais aussi car l’OS fait aussi tourner tout un tas d’autres services en taches de fond.
* sur les Ryzen 5900X et 5950X, il y a deux caches L3 (un par CCD) ce qui peut amener le même genre de soucis que deux contrôleurs mémoires mais tes tests n’ont pas relevé de problème dans la linéarité des performances de 8 jusqu’à 11 coeurs donc pas là que se situe le goulot d’étranglement pour ton bench en particulier.
Elles sont tout le temps énormes et je commente rarement mais là, la 3 avec Clippy en Castex (ou Castex en Clippy ? ) m’a fait explosé de rire. Bravo !
Il sera par contre intéressant de tester ces modèles pour voir si des modifications dans leur consommation ou leur capacité d’overclocking découlent des changements opérés.
Si c’est effectivement le cas, ça pourrait justement permettre à AMD de sortir des refresh en XT avec des fréquences (très) légèrement augmentées avec ces nouveaux CCD (cœurs). Il y a déjà des rumeurs à ce sujet qui courent sur le net.
Je pense que cette “Journée internationale de préparation aux épidémies” est nouvelle/vient juste d’être déclarée par l’ONU, d’où l’article. De plus, le 27 décembre ne serait-il pas la date du premier cas officiellement déclaré de Covid-19 en Chine l’an dernier ?
Je crois que mon 2600 a trouvé son successeur… (i7 2600, pas Ryzen 2600 ).
Mon 2600 aussi commence sérieusement à chercher un successeur (i7 2600k). Je vais juste attendre quelques mois de plus pour laisser le temps à AMD de peaufiner les BIOS et surtout pour réfléchir à quel CPU prendre entre 5800X, 5900X et 5950X Peut-être le dernier pour garder ma nouvelle bécane 10 ans comme l’actuel qui s’en approche beaucoup.
Dommage de ne pas voir un 3950XT. Vont-ils faire comme l‘an dernier ? Attendre quelques mois avant de le sortir ? Pour 100 ou 200 € de plus ? Je risque de craquer (le slip ;-) ) avant sur un 3950X.
Je ne pense pas. Les prochains CPU chez AMD seront les Ryzen 4000 (en Zen 3 et à ne pas confondre avec les APU qui arrivent en ce moment) avant la fin de l’année ! Pas vraiment la place dans le calendrier pour sortir et laisser vivre un nouveau produit. AMD/Lisa Su (PDG) a communiqué aujourd‘hui pour célébrer l’anniversaire des Ryzen 3000 (7⁄7) et la sortie de ces nouvelles variantes XT en concluant que Zen3 est bien dans les clous côté planning pour sortir d‘ici la fin de l’année.
PPC -> x86_64 -> ARM Ce sera quoi la prochaine architecture? SPARC? MIPS?
Comme David, je vote RISC-V ! L‘avantage ? ISA (le jeu d’instructions) et ses extensions sont libres de droit, aucune royalties à payer comme c‘est le cas pour ARM.
C’est justement dans le domaine de l’embarqué que je l’emploie tous les jours au travail " /> On compile en C99 et on a également un paquet de règles de codage comme celles dictées par l’ANSSI dans son document.
Le
01/06/2020 à
22h
10
Witcher a écrit :
LOL le C a été abandonné depuis 30 ans pour le C++ !
Ah bon, il n’y a eu que le C89 ? Première nouvelle !!
Il y a pourtant eu une révision en 1999 (C99) et une en 2011 (C11) et une nouvelle est à venir dans quelques années prénommée pour l’instant C2x (sans parler des versions “bugfix”/mineures C95 et C17…).
Le C est encore utilisé dans de nombreux domaines. J’en fais tous les jours au travail…
Mouais pareil. AUtant rester sur la version livrée avec l’appareil.
Et le suivi des mises à jour ?! OnePlus a maintenu pendant plusieurs années son OnePlus 3 mais il est maintenant bloqué en Android 9 (il est sorti avec Android 6 quand même !) avec le patch d’octobre 2019. Je vais donc certainement sauter le pas vers une ROM costum toujours maintenu dans pas longtemps pour mon appareil. Celle-ci va s’ajouter à la liste des candidates.
Les opérateurs sont les premiers à surveiller leur réseau. l’ANFR n’est pas là pour ça.
Norde a écrit :
Je rajouterai que les campagnes de mesures / contrôle permettent de prévenir les dérives / relâchements.
Tu as la raison juste au dessus de ton dernier message : les opérateurs contrôlent aussi leur réseau pour pas se faire taper sur les doigts et éviter les amendes puisque c’est la loi. Ils ne le font pas gracieusement et par pur bonté.
Je suis d’accord avec toi, il faut bien trouver un “dénominateur commun” pour brancher deux langages si différents dans leurs grands principes, qui est donc l’ABI du C.
Néanmoins, ce dénominateur commun n’est justement que l’interface binaire des wrappers vers le langage de destination. Sachant que le langage de destination est utilisé pour écrire ce même wrapper, il peut utiliser dans son implémentation les spécificités du langage de destination, mais évidemment pas dans son interface, limitée par l’ABI du C.
Mais une fois le LTO passé, ces wrappers étant généralement courts, ils auront certainement été inlinés donnant un overhead proche de zéro.
Enfin, ça reste du travail pas fait en simplement quelques jours. Pour les types/classes échangés entre les deux langages, il faut faire des wrappers pour tous les services ; pour ce qui est template, il faut faire une “moulinette” qui génère ces wrappers ou les faire à la main comme pour les classes s’il y en a juste quelques-uns, sinon vite chronophage.
Bref, je raconte quasiment la même chose que toi, nous sommes d’accord " />
Le
26/07/2019 à
16h
13
Je n’ai pas lu tous les commentaires, la discussion est longue mais une nouveauté toute récente concernant l’interopérabilité C++/Rust, les dévs de Firefox ont réussi à faire du LTO (link-time optimization) entre fichiers objet issus de C++ et de Rust !!!
Mon Intel i7 2600K et ses failles HW à répétition avec patchouille SW plombant les performances petit à petit va officiellement partir à la retraire cette année ! Certainement pour un 3700X, voire 3800X… ou un 3950X si le banquier le permet ?! En tout cas, super article ! Ça en fait presque oublier la perte de HFR l’an dernier !
(quote:41574:ZX81.1) La gestion du PCIE 4.0 est sur le CPU. Il faudra un Ryzen 23 (Zen 2) pour en profiter, et peut-être pas sur toute les CM. AMD laisse cette option à la discrétion des fabricants. D’après les premières infos, seuls les ports proches du CPU pourront en profiter sur les anciennes CM.
AS arrive dès Gen11, pas besoin d’attendre un hypothétique GPU pour en profiter. Vu que ça fait des années qu’Intel fait des promesses dans le vide à ce sujet, c’était la moindre des choses
C’est bien ce qu’il me semblait
Le
28/02/2019 à
00h
22
Charly32 a dit:
Merci pour ta réponse !J’ai l’impression que ce qui a le plus freiné l’adoption des écrans freesync c’était…l’obligation de posséder un GPU AMD. Dans mon entourage, ça commence à sérieusement considérer les écrans Freesync depuis que nVidia les supporte.
Sans oublier qu’Intel va supporter l’AdaptativeSync (la norme sur laquelle se base FreeSync, ce dernier n’étant au final que le programme de certification d’AMD avec des critères en plus du simple taux de rafraichissement variable) sur ses GPU dédiés à venir l’an prochain et devrait même commencer à le supporter sur ses prochains iGPU de mémoire. Bref, même si AMD ne détient pas la couronne des performances, ils ont encore une fois réussi à imposer les technologies qu’ils développent (x86_64, Mantle qui a donné naissance à DX12 et Vulkan, et maintenant Free/AdaptativeSync, et j’en oublie certainement).
Bon, je verrais ce soir à la maison car son mon Firefox ESR 52.4 (32-bits) du boulot (derrière un proxy d’entreprise), j’ai essayé deux fois de l’ouvrir et à chaque fois il fait freezer mon navigateur quelques secondes jusqu’à que Firefox me propose d’arrêter le script qui bloque tout le monde… Et ensuite, sans javascript, il n’y a plus grand chose qui fonctionne. Bref, vous devriez certainement faire un peu plus d’asynchrone par ci par là dans votre code pour débloquer le navigateur.
Sinon, impatient de voir ça ce soir, encore quelques heures à tenir !!! " />
Effectivement, ça m’a fait tiquer un peu aussi. J’aurais écris “utilise […] pour la troisième fois” tout simplement. Cela dit, je ne suis pas un expert et je me suis fait avoir avec “après que” et la conjugaison du verbe de la subordonnée derrière la dernière fois donc mon avis est à prendre avec des pincettes " />
Les époux se doivent mutuellement respect, fidélité, secours, assistance.
Ce n’est pas un délit pénal, mais c’est bien contraire à la loi.
Tu peux avoir des relations extra-conjugales tout en étant fidèle. L’un n’exclut pas l’autre. En effet, comment font les couples libertins ? Ce n’est pas parce que tu as des relations avec d’autres que tu n’es plus fidèle envers ton ou ta compagne. S’il y a commun-accord entre les deux mariés sur le sujet, je ne vois pas en quoi la fidélité serait rompue. Ce n’est cependant que mon humble avis, je ne suis pas juriste.
Après, si l’un des deux changent d’avis et lance une procédure de divorce, ça doit être compliqué à prouver que les relations extra conjugales étaient “légitimes” et ne rompaient pas le devoir de fidélité.
Plus qu’à attendre la prochaine révision de la langue français pour que “après que” suivi d’une subordonné au subjonctif soit accepté " />
Le
21/11/2018 à
13h
25
“après qu’Elon Musk eut tiré […]” alors ? " />
Nan mais franchement, il ne vaut pas chercher des exceptions à “après que”. Le traitement de la subordonnée suivant “après que” est déjà une exception au traitement nominal des subordonnée après “que”… Avez-vous saisi le jeu de mot au passage ? " />
Bref, la langue française dans toute sa splendeur encore une fois.
Cependant, il y a quand même de nombreuses règles dans la langue française qui sont là pour faire sonner la langue plus poétique et je dois avoir la même oreille que @Vekin sur ce cas-là car je trouve bien que “après qu’[il] ait tiré […]” sonne mieux que “après qu’[il] a” (ou “eut”) “tiré […]”…
Mon cerveau avait d’ailleurs bien lu “ait tiré” instinctivement dans un premier temps avant qu’il ne se rende compte qu’il y avait désaccord entre l’instinct et ce que mes yeux voyaient. J’ai bugué et pris deux secondes de plus avant de réaliser pourquoi mon cerveau avait arrêté de lire de lui-même " />
Le
21/11/2018 à
11h
50
Je me disais exactement la même chose, ça devrait être du subjonctif dans ce cas. J’ai d’ailleurs remonté l’erreur par l’outil officiel, les commentaires ne sont normalement pas faits pour ça.
Il n’y a que moi qui ait remarqué que le logo de Cmder est la lettre grecque lambda ? Or lambda fait parti du logo d’Half-Life dont on fête aujourd’hui ces 20 ans !!! Half-Life 3 confirmed?!
ps: désolé, fallait la faire et personne n’a osé avant moi " />
Les tout premiers multi-coeurs intel, les Pentiums D, continuaient d’ailleurs à communiquer via bus multiplexé et chaque core devait passer par le northbridge sur la carte mère pour communiquer avec son voisin là où les Athlon X2 bénéficiaient d’un pont direct dans la puce.
Les Core 2 Duo corrigeaient ce problème des Pentiums D mais Intel avait toujours le même problème avec les Core 2 Quad qui étaient en fait deux Core 2 Duo dans le même package et qui communiquaient ensemble à travers le northbridge comme les deux coeurs d’un Pentium D, n’est-ce pas ? Problème qu’Intel n’a corrigé qu’avec l’arrivée des Nehalem.
C’est vrai que tant bien même Intel a mieux réussi commercialement (sans juger sa manière de faire) qu’AMD, ce dernier a apporté d’avantage d’innovations que son concurrent. De même côté GPU avec Mantle plus récemment ayant donné ensuite naissance à DX12 et Vulkan, ce dernier ayant totalement dépassé le simple cadre des PCs en atteignant smartphones et consoles (la Switch, pourtant en Nvidia, supporte le Vulkan il me semble). Également pour Freesync qui a été adapté dans les standards ouverts et devrait être supporté par les GPU Intel d’ici quelques temps. En espérant pour les fanboys Nvidia que Nvidia s’y mette aussi à terme…
Déjà abonné depuis 54 mois et jusqu’à octobre prochain, je vais me réabonner pour deux ans si possible ce soir et faire un petit don de 2€ en prime pour arrondir la facture à 50€ " />
Et trop impatient de voir arriver INpact Hardware. Même si vous avez déjà bien décortiqué le dernier événement d’AMD avec les quelques infos qu’ils ont données, j’espère pouvoir lire une description architecturale et un test détaillés des Ryzen 3000 sur INpact Hardware l’an prochain ! " />
90 commentaires
Sept ans plus tard, la faille Spectre continue de hanter les processeurs AMD et Intel
07/11/2024
Le 08/11/2024 à 15h 55
D'ailleurs, l'API DirectStorage de Microsoft permet maintenant aux applications (principalement jeux mais pas que) de programmer des transferts de données d'un SSD NVMe directement vers le GPU. Ce genre de techno était plutôt dans une niche auparavant soit pour optimiser des choses en interne des noyaux soit pour éviter de la fuite/manipulation de données entre VMs sur une même machine (dans le cas où l'hyperviseur donne l'accès direct à un périphérique physique à une VM, sans IOMMU, l'invité pourrait utiliser ce périphérique pour manipuler les données directement en mémoire physique), ou pour restreindre l'accès à la mémoire centrale si un périphérique n'est pas digne de confiance.
Il existe également des API équivalentes côté monde UNIX pour programmer des transferts de données directs entre périphériques (entre deux cartes réseaux ou une carte réseau et un disque).
#Flock : Gnapple Intelligence
15/06/2024
Le 15/06/2024 à 22h 51
C'est moi ou c'est Poutou sur la dernière planche ?SiPearl : le CPU Rhea2 dès 2025, dans un supercalculateur exascale européen en 2026
12/03/2024
Le 13/03/2024 à 00h 50
Je trouve ça dommage depuis le début de leur aventure qu'ils soient partis sur du ARM et non du RISC-V. Après, c'est pas un processeur COTS/pour le commerce (même B2B), c'est un costum chip pour des supercalculateurs européens, ils doivent avoir un cahier des charges long comme le bras et avec une pression de fou (en terme d'objectifs et de délai).#Flock cache des friandises pour geeks dans sa grosse hotte
24/12/2022
Le 26/12/2022 à 11h 22
Je ne connais pas le lien par cœur mais je me doutais très fortement de ce que j’allais y trouver et j’ai vu juste
Bonnes fêtes à tous et à toute l’équipe NextINpact
La distribution Tails 5.5 est disponible, mais il vaut peut-être mieux attendre
18/10/2022
Le 18/10/2022 à 09h 20
Cela dit, la version précédente était très certainement déjà vulnérable à ces attaques-là et cette nouvelle version corrige tout de même bien d’autres failles. Donc même s’il reste des vulnérabilités connues, cette nouvelle version reste plus sûre que la précédente donc elle est toujours utile, en attend la prochaine version corrigeant ces dernières failles.
Magazine #4 de Next INpact : la campagne de financement est terminée, nous ajouterons les (auto)portraits
15/07/2022
Le 03/07/2022 à 10h 25
Voilà, contribution faite. J’ai pris le pack magazine + stickers et rajouté 5€ de don pour faire un total de 32€ (livraison incluse) comme la dernière fois avec le magazine #3 (parce que vous avec réduit le tarif de cette contribution !!!)
Bon courage à vous, nous sommes tous avec vous !
71% à l’heure où j’écris ce message. L’objectif approche
EDIT: d’ailleurs elle est où la page remerciements sur le site ? Je n’ai pas réussi à la trouver.
#Flock n’est jamais à court d’idées
16/04/2022
Le 16/04/2022 à 12h 22
J’allais dire la même chose, GROS +1 !
Sailfish OS 4.4.0 Vanha Rauma est là avec d’importantes nouveautés
30/03/2022
Le 30/03/2022 à 09h 32
Attention à la formulation :
“une évolution de la base au niveau de sécurité r62 d’Android 10”
laisserait entendre que le système se base sur Android mais c’est faux. Sailfish OS est une distribution Linux et non une distribution Android (lui-même étant un fork de Linux, soit).
C’est la base du support des applications Android qui a été mis à jour.
Comportement surprenant d’un atome hybride d’hélium, composé de matière et d’antimatière
21/03/2022
Le 21/03/2022 à 22h 17
Merci pour toutes ces précisions
Le 21/03/2022 à 14h 02
Je ne comprend toujours pas pourquoi l’article parle de l’électron au singulier et non au pluriel, l’atome d’hélium devrait en avoir deux (étant donné qu’il y a deux protons dans le noyau)
Du coup, avec le poids de l’électron étant négligeable vis-à-vis du poids du (anti)proton, on devrait même être au double de la masse pour cette atome hybride, non ?
Le 21/03/2022 à 12h 57
Importante différence de masse entre un électron et un antiproton mais relativement parlant, ça donne quoi comme différence sur l’ensemble de l’atome d’hélium classique versus d’hélium avec antiprotons à la place des électrons ?
Firefox : l’accélération matérielle pour AV1 en approche
21/03/2022
Le 21/03/2022 à 12h 48
L’accélération matérielle est le fait d’utiliser une unité de traitement dédiée à la tâche en question et non d’utiliser le processeur qui lui reste générique et programmable logiciellement.
Dans le cas de la vidéo, tous les GPUs comprennent une unité de décodage matériel de la vidéo dans différents codecs. L’AV1 étant relativement récent, seuls les GPUs les plus récents sont capables de le décodé matériellement et ont donc une part faible dans le parc mondial.
Les avantages principaux de ce genre d’unité de traitement sont leur faible consommation et leur performance vis-à-vis d’une solution logicielle (étant donné que ces unités ont été spécifiquement conçues pour réaliser cette tâche contrairement aux CPUs). La partie performance permet justement en principe de supporter des formats vidéo (genre de la 4K/8K) que le CPU de la machine ne serait pas capable de décoder suffisamment rapidement pour tenir le framerate de la vidéo (sous condition que le média et le bus mémoire possède suffisamment de bande passante pour alimenter le GPU bien sûr).
Même pour les CPUs plus performants, cela permet de dégager de la charge de leur côté pour faire autre chose ; pratique si vous faites autres choses (jeu, bureautique, navigation web, développement…) avec une vidéo YouTube en incrustée ou sur un autre écran par exemple.
Dernier avantage pour le cas du décodage vidéo, ces unités se trouvent dans le GPU, ce qui permet au flux vidéo décodé (qui peut demander énormément de bande passante suivant la résolution) d’être au plus proche de la sortie vidéo à destination de l’écran, économisant beaucoup d’envois de données vers le GPU depuis le CPU si c’était ce dernier qui avait fait le décodage.
Rachat d’Arm : NVIDIA jette l’éponge, une entrée en bourse se prépare
08/02/2022
Le 08/02/2022 à 13h 41
De toute manière, la solution à long terme, c’est le RISC-V !
Alder Lake-S : Intel pourrait définitivement bloquer AVX-512
03/01/2022
Le 03/01/2022 à 23h 54
Les E-cores ont tout de même une utilité et permettent d’économiser de l’énergie lorsque le processeur est peu demandé. Désactiver/bloquer l’utilisation de l’AVX-512 alors que les unités de traitement sont là est un gaspillage pur et dur.
Les unités de traitement AVX-512 sont là, même si ce n’est pas forcément très utile pour le public visé par ces processeurs, c’est trop tard, elles sont dans le design et sont gravées. Et le client les paient tout de même !
La consommation de ces unités de traitement est, certes, importante, mais elles sont très efficaces ! Ça peut provoquer un pic de consommation et de chaleur mais les calculs seront terminés bien plus rapidement et en consommant au final moins d’énergie.
Les processeurs sont de nos jours parfaitement capables de s’auto-réguler en cas de problème de chauffe ou d’alimentation, et ce genre d’unités de calculs consomment quasiment 0 (en micro voire nano ampères) lorsqu’elles ne sont pas utilisées.
Ce ne sera pas forcément un mal que Intel retire ces unités de la prochaine gen mais pour la gen 12, elles y sont, on les pait, c’est vraiment un mal qu’Intel bride quelque chose pour lequel le client a payé.
Le 03/01/2022 à 10h 52
C’est surtout le rôle de l’OS de faire son boulot et de migrer un thread exécutant une instruction AVX-512 sur un cœur en étant dépourvu sur un cœur disposant de l’instruction demandée.
Après, si l’application a demandé à l’OS de n’exécuter le thread en question que sur les E-cores, tant pis pour elle, là ça sera de sa faute et l’OS peut lui envoyer un signal “illegal instruction”.
Je pense que cette histoire est surtout une volonté commerciale d’Intel de garder l’AVX-512 sur ses Xeon et c’est maintenant un bon gaspillage de transistors puisque les P-cores en sont pourtant bien pourvus…
Exposition aux ondes : un an après le lancement de la 5G, l’ANFR fait le point
15/12/2021
Le 15/12/2021 à 19h 14
Euh mais à terme, les usagers vont transiter de la 3/4G vers la 5G générant donc du trafic sur les bandes de la 5G mais moins de trafic sur les bandes des 3 et 4G. Est-ce que cela a bien été pris en compte dans leur estimation ?
Le Parti pirate tchèque va entrer dans le gouvernement en formation
17/11/2021
Le 17/11/2021 à 11h 29
Bravo aux premiers Pirates membres d’un gouvernement au monde
Surtout étonné (mais dans le bon sens du terme) et ravi qu’ils héritent du ministère des affaires étrangères.
Autant le premier sur le numérique, c’est leur cible principale (avec le modèle démocratique), autant niveau relation internationale, je ne connais pas leur orientation sur le sujet.
Magazine #3 : la campagne de financement est terminée, les 150 % dépassés !
03/12/2021
Le 02/11/2021 à 19h 42
J’ai créé un compte Ulule rien que pour vous
Participation réalisée ! Ne changez rien.
Ubuntu sur RISC-V via une carte HiFive Unmatched : ça marche
30/08/2021
Le 30/08/2021 à 21h 45
La scalabilité d’un “processeur” ne dépend pas seulement de lui-même mais aussi du logiciel qui l’exploite (aussi bien applicatif que l’OS, et en particulier son scheduler/ordonnanceur), et de la bande passante de la mémoire et/ou du stockage (voire du réseau) si le logiciel en question en demande dans des proportions importantes.
Les Ryzen ont une architecture plutôt straight-forward avec un seul contrôleur mémoire (contrairement aux Threadrippers basés sur Zen1), sous forme d’arbre (contre l’architecture en anneau chez Intel pendant un temps (et peut-être encore aujourd’hui ?)) et pas de partage d’unité de calcul entre cœur comme sur Bulldozer. Il n’y aucune raison que les cœurs en eux-mêmes ne soient pas scalables, à part pour des raisons qui leur sont extérieures : refroidissement insuffisant donc moins de boost, cache L1, L2 ou L3 trop petits pour l’application (juste le L3 sur Zen* qui est partagé entre cœur, L1 et L2 sont dédiés à un seul cœur sur cette architecture) ou bande passante (mémoire, stockage, réseau) insuffisante pour nourrir plus de cœurs.
Et justement dans le cas de l’outil de bench que tu considères, ça doit certainement consommer pas mal de bande passage du stockage et dans une moindre mesure de la mémoire.
Fait tourner un test purement CPU et tu verras que les Ryzen sont parfaitement scalables.
Et même dans le cas des Threadrippers en Zen1, si l’application est designée de sorte a prendre en considération l’architecture avec deux contrôleurs mémoires, ça sera tout aussi scalable.
Et enfin, comme l’a dit @David_L, les benchs théoriques sont pas vraiment la réalité. Bien sûr qu’il peut t’arriver de devoir compresser ou décompresser des fichiers ou de faire d’autres calculs parallélisable mais de nos jours, un CPU travaille rarement pour une seule application, tout simplement car on, en tant qu’utilisateur, utilise plusieurs applications en même temps, mais aussi car l’OS fait aussi tourner tout un tas d’autres services en taches de fond.
* sur les Ryzen 5900X et 5950X, il y a deux caches L3 (un par CCD) ce qui peut amener le même genre de soucis que deux contrôleurs mémoires mais tes tests n’ont pas relevé de problème dans la linéarité des performances de 8 jusqu’à 11 coeurs donc pas là que se situe le goulot d’étranglement pour ton bench en particulier.
#Flock déclare son amour à Clippy
17/07/2021
Le 17/07/2021 à 14h 41
Révision B2 des Ryzen 5000 : pour AMD, aucun changement sur les performances
19/05/2021
Le 19/05/2021 à 09h 13
Si c’est effectivement le cas, ça pourrait justement permettre à AMD de sortir des refresh en XT avec des fréquences (très) légèrement augmentées avec ces nouveaux CCD (cœurs). Il y a déjà des rumeurs à ce sujet qui courent sur le net.
ONU : le 27 décembre est la « Journée internationale de préparation aux épidémies »
08/12/2020
Le 08/12/2020 à 20h 06
Je pense que cette “Journée internationale de préparation aux épidémies” est nouvelle/vient juste d’être déclarée par l’ONU, d’où l’article.
De plus, le 27 décembre ne serait-il pas la date du premier cas officiellement déclaré de Covid-19 en Chine l’an dernier ?
AMD dévoile ses Ryzen 5000 (Vermeer) dès 299 dollars, de premiers chiffres des Radeon RX 6000
08/10/2020
Le 08/10/2020 à 19h 43
Mon 2600 aussi commence sérieusement à chercher un successeur (i7 2600k). Je vais juste attendre quelques mois de plus pour laisser le temps à AMD de peaufiner les BIOS et surtout pour réfléchir à quel CPU prendre entre 5800X, 5900X et 5950X Peut-être le dernier pour garder ma nouvelle bécane 10 ans comme l’actuel qui s’en approche beaucoup.
Avec son Ryzen 9 3900XT, AMD continue de mettre la pâtée à Intel
07/07/2020
Le 07/07/2020 à 23h 45
Je ne pense pas. Les prochains CPU chez AMD seront les Ryzen 4000 (en Zen 3 et à ne pas confondre avec les APU qui arrivent en ce moment) avant la fin de l’année ! Pas vraiment la place dans le calendrier pour sortir et laisser vivre un nouveau produit. AMD/Lisa Su (PDG) a communiqué aujourd‘hui pour célébrer l’anniversaire des Ryzen 3000 (7⁄7) et la sortie de ces nouvelles variantes XT en concluant que Zen3 est bien dans les clous côté planning pour sortir d‘ici la fin de l’année.
Mac à base d’Apple Silicon : la fin d’une ère, AMD et Intel réagissent
30/06/2020
Le 30/06/2020 à 19h 26
Comme David, je vote RISC-V ! L‘avantage ? ISA (le jeu d’instructions) et ses extensions sont libres de droit, aucune royalties à payer comme c‘est le cas pour ARM.
La maladie Covid-19 doit-elle entrer dans les agents biologiques de niveau 3 ou 4 ?
09/06/2020
Le 09/06/2020 à 14h 34
On passe de « pouvant » à « qui provoquent ».
Oui mais aussi de « une maladie grave » à « des maladies graves ».
Est-ce que cela à une importance dans le débat ? C’est une bonne question.
Une possible mission pour Laetitia Avia pour jauger de l’application de la loi Avia
05/06/2020
Le 05/06/2020 à 10h 48
Oui, ils sont doués, ils font des lois sans même savoir si c’est applicable. Que d’argent du contribuable perdu à payer des heures au carré…
L’ANSSI publie ses règles pour le développement sécurisé de logiciels en langage C
01/06/2020
Le 02/06/2020 à 21h 47
C’est justement dans le domaine de l’embarqué que je l’emploie tous les jours au travail " /> On compile en C99 et on a également un paquet de règles de codage comme celles dictées par l’ANSSI dans son document.
Le 01/06/2020 à 22h 10
ROM personnalisée : Paranoid Android revient, une version stable basée sur Android 10
21/04/2020
Le 21/04/2020 à 19h 50
Bilan de l’exposition du public aux ondes, un « point atypique » à plus de 28 V/m
09/04/2020
Le 09/04/2020 à 22h 15
Vers des disques durs de 80 To grâce à de nouveaux plateaux HAMR
11/02/2020
Le 11/02/2020 à 11h 11
Un plateau sur 3.
Enfin, si les plateaux peuvent être testés/vérifiés avant d’être montés dans un disque dur, j’espère…
Next INpact : les réponses à vos questions, NXI v7 et rencontres
19/08/2019
Le 21/08/2019 à 11h 44
Le 19/08/2019 à 19h 28
Noooooon, rencontre à Bordeaux le samedi 14 septembre, le seul weekend de septembre où je suis pris " />
Microsoft se penche sur le langage Rust pour sa programmation système
26/07/2019
Le 26/07/2019 à 23h 37
Je suis d’accord avec toi, il faut bien trouver un “dénominateur commun” pour brancher deux langages si différents dans leurs grands principes, qui est donc l’ABI du C.
Néanmoins, ce dénominateur commun n’est justement que l’interface binaire des wrappers vers le langage de destination. Sachant que le langage de destination est utilisé pour écrire ce même wrapper, il peut utiliser dans son implémentation les spécificités du langage de destination, mais évidemment pas dans son interface, limitée par l’ABI du C.
Mais une fois le LTO passé, ces wrappers étant généralement courts, ils auront certainement été inlinés donnant un overhead proche de zéro.
Enfin, ça reste du travail pas fait en simplement quelques jours. Pour les types/classes échangés entre les deux langages, il faut faire des wrappers pour tous les services ; pour ce qui est template, il faut faire une “moulinette” qui génère ces wrappers ou les faire à la main comme pour les classes s’il y en a juste quelques-uns, sinon vite chronophage.
Bref, je raconte quasiment la même chose que toi, nous sommes d’accord " />
Le 26/07/2019 à 16h 13
Je n’ai pas lu tous les commentaires, la discussion est longue mais une nouveauté toute récente concernant l’interopérabilité C++/Rust, les dévs de Firefox ont réussi à faire du LTO (link-time optimization) entre fichiers objet issus de C++ et de Rust !!!
" />
https://www.reddit.com/r/cpp/comments/ch7g6n/mozilla_just_landed_crosslanguage_l…
C’est un peu le niveau ultime de l’interopérabilité quand même… Faut juste que Microsoft se mette à la page " />
AMD détaille Zen 2 et le chipset X570 : composition, améliorations, mémoire, connectique, etc.
11/06/2019
Le 11/06/2019 à 21h 31
Mon Intel i7 2600K et ses failles HW à répétition avec patchouille SW plombant les performances petit à petit va officiellement partir à la retraire cette année ! Certainement pour un 3700X, voire 3800X… ou un 3950X si le banquier le permet ?!
En tout cas, super article ! Ça en fait presque oublier la perte de HFR l’an dernier !
PCIe 4.0 et chipsets AMD de la série 400 : de premiers BIOS/UEFI Gigabyte donnent de l’espoir
20/05/2019
Le 20/05/2019 à 11h 57
Oasis : une démo d’AMD pour relancer l’intérêt autour de FreeSync
27/02/2019
Le 28/02/2019 à 22h 42
C’est bien ce qu’il me semblait
Le 28/02/2019 à 00h 22
Sans oublier qu’Intel va supporter l’AdaptativeSync (la norme sur laquelle se base FreeSync, ce dernier n’étant au final que le programme de certification d’AMD avec des critères en plus du simple taux de rafraichissement variable) sur ses GPU dédiés à venir l’an prochain et devrait même commencer à le supporter sur ses prochains iGPU de mémoire.
Bref, même si AMD ne détient pas la couronne des performances, ils ont encore une fois réussi à imposer les technologies qu’ils développent (x86_64, Mantle qui a donné naissance à DX12 et Vulkan, et maintenant Free/AdaptativeSync, et j’en oublie certainement).
INpact Hardware est là, dites-nous ce que vous pensez de sa version beta
19/12/2018
Le 19/12/2018 à 16h 27
Bon, je verrais ce soir à la maison car son mon Firefox ESR 52.4 (32-bits) du boulot (derrière un proxy d’entreprise), j’ai essayé deux fois de l’ouvrir et à chaque fois il fait freezer mon navigateur quelques secondes jusqu’à que Firefox me propose d’arrêter le script qui bloque tout le monde… Et ensuite, sans javascript, il n’y a plus grand chose qui fonctionne. Bref, vous devriez certainement faire un peu plus d’asynchrone par ci par là dans votre code pour débloquer le navigateur.
Sinon, impatient de voir ça ce soir, encore quelques heures à tenir !!! " />
Spaceflight SSO-A : SpaceX utilise et récupère pour la troisième fois un premier étage
04/12/2018
Le 04/12/2018 à 23h 29
Effectivement, ça m’a fait tiquer un peu aussi. J’aurais écris “utilise […] pour la troisième fois” tout simplement. Cela dit, je ne suis pas un expert et je me suis fait avoir avec “après que” et la conjugaison du verbe de la subordonnée derrière la dernière fois donc mon avis est à prendre avec des pincettes " />
Revenge porn : une femme condamnée pour violation de la vie privée
28/11/2018
Le 28/11/2018 à 21h 45
La NASA enquête sur SpaceX et Boeing… à cause des frasques d’Elon Musk ?
21/11/2018
Le 21/11/2018 à 13h 28
I stand corrected!
Plus qu’à attendre la prochaine révision de la langue français pour que “après que” suivi d’une subordonné au subjonctif soit accepté " />
Le 21/11/2018 à 13h 25
“après qu’Elon Musk eut tiré […]” alors ? " />
Nan mais franchement, il ne vaut pas chercher des exceptions à “après que”. Le traitement de la subordonnée suivant “après que” est déjà une exception au traitement nominal des subordonnée après “que”… Avez-vous saisi le jeu de mot au passage ? " />
Bref, la langue française dans toute sa splendeur encore une fois.
Cependant, il y a quand même de nombreuses règles dans la langue française qui sont là pour faire sonner la langue plus poétique et je dois avoir la même oreille que @Vekin sur ce cas-là car je trouve bien que “après qu’[il] ait tiré […]” sonne mieux que “après qu’[il] a” (ou “eut”) “tiré […]”…
Mon cerveau avait d’ailleurs bien lu “ait tiré” instinctivement dans un premier temps avant qu’il ne se rende compte qu’il y avait désaccord entre l’instinct et ce que mes yeux voyaient. J’ai bugué et pris deux secondes de plus avant de réaliser pourquoi mon cerveau avait arrêté de lire de lui-même " />
Le 21/11/2018 à 11h 50
Je me disais exactement la même chose, ça devrait être du subjonctif dans ce cas. J’ai d’ailleurs remonté l’erreur par l’outil officiel, les commentaires ne sont normalement pas faits pour ça.
Cmder : un émulateur de terminal portable, pratique et complet pour Windows
19/11/2018
Le 19/11/2018 à 21h 47
Il n’y a que moi qui ait remarqué que le logo de Cmder est la lettre grecque lambda ? Or lambda fait parti du logo d’Half-Life dont on fête aujourd’hui ces 20 ans !!! Half-Life 3 confirmed?!
ps: désolé, fallait la faire et personne n’a osé avant moi " />
Boutique de goodies : nouveau pack, nouveaux tarifs, les produits INpact Hardware sont là !
17/11/2018
Le 16/11/2018 à 11h 12
Rome : AMD dévoile ses EPYC 7 nm avec un nouveau design, jusqu’à 64 cœurs et 128 lignes PCIe 4.0
07/11/2018
Le 07/11/2018 à 17h 10
1 an d’abonnement pour 30 euros : il ne vous reste que quelques heures
14/11/2018
Le 07/11/2018 à 15h 32
Déjà abonné depuis 54 mois et jusqu’à octobre prochain, je vais me réabonner pour deux ans si possible ce soir et faire un petit don de 2€ en prime pour arrondir la facture à 50€ " />
Et trop impatient de voir arriver INpact Hardware. Même si vous avez déjà bien décortiqué le dernier événement d’AMD avec les quelques infos qu’ils ont données, j’espère pouvoir lire une description architecturale et un test détaillés des Ryzen 3000 sur INpact Hardware l’an prochain ! " />
Keep up the good work! " />
" />