votre avatar Abonné

Elioty

est avec nous depuis le 31 mars 2015 ❤️

90 commentaires

Le 08/11/2024 à 15h 55

Les failles Spectre/Meltdown sont couvertes médiatiquement car elles sont quasi impossible à corriger, touchent tous les PC depuis 15 ans et la plupart des smartphones -> surface importante.
(intéressant d'ailleurs de voir à quel point Intel semble plus souvent cité qu'AMD, et ARM très très peu cité alors que touché aussi).
Par ailleurs, les marques Intel/AMD, le composant CPU sont les éléments les plus parlants dans un ordi - beaucoup de gens ont une compréhension très limitée des autres éléments. On touche au coeur de l'ordi, ça réagit.

Pour les GPU, c'est légèrement différent: les failles sont plutôt logicielles - tant qu'il y a des failles logicielles suffisamment évidentes, peu de chercheurs iront sur le hardware. Je pense que 80-90% des utilisateurs n'ont pas de notion de leur GPU (je ne parle pas de l'audience de next), surtout si on inclut les téléphones (je ne sais pas du tout quel CPU/GPU j'ai dans mon tel par exemple - juste sa capacité de stockage et qu'il est 5G, ça me suffit). Par contre, en regardant les failles GPU sur les pilotes, je me suis aperçu qu'il y en a un paquet pour des GPU Arm, dont certaines très bien notées - avec Android qui ne se met pas à jour c'est tout bénef.

Mais au-delà des GPU, il y aura aussi les NPU, les processeurs TPM, les cartes Wifi, les SSD - nombre d'éléments dans un ordi sont attaquables, et tous ont de plus en plus de traitements "autonome" (il y a des démos de RAM qui traitent les données). Niveau OS, c'est drôle aussi: lors d'un context-switch, il faut pouvoir prévenir les pilotes et cartes que le processus a changé (la 1ère fuite avec les CG, c'était simplement de pouvoir capturer l'écran du processus précédent).
Quand les éléments NVMe parleront ensemble ça va être drôle aussi (genre la carte réseau qui cause au SSD sans le CPU...).

Les mécanismes de sécu sont en plus maintenant conjointement implémenté entre le CPU, l'OS et ... l'appli! Ca devient impossible à dire qu'on est sécurisé du coup!

Pour se donner une idée de l'ampleur de bazar, on peut reprendre par exemple la sécurité dans Windows. Il y a quelques éléments plus ou moins cocasses qui sont plus sécurisés que les autres: l'imprimante, le fond d'écran, les sons systèmes :) - car pouvoir d'espionnage ou de nuisance maximum - enfin début 2000 :)

Expérience personnelle: j'ai eu un jour un patch à mettre sur des machines. Le cache des cartes RAID était accessible depuis n'importe quelle VM... Oups!

Quand les éléments NVMe parleront ensemble ça va être drôle aussi (genre la carte réseau qui cause au SSD sans le CPU...).
Ca existe déjà depuis longtemps le P2P sur un bus mémoire (échanges directes entre deux périphériques sans que le CPU ne lise sur l'un pour écrire sur l'autre). Ca permet de gagner énormément en performance et en énergie et les processeurs implémentent une "IOMMU" (ou DVMA, SMMU, PAMU, SR-IOV... selon les architectures et protocoles) pour protéger tout ça et ne laisse discuter entre eux (et aux adresses voulues) que les périphériques autorisés par le système d'exploitation et ses pilotes.

D'ailleurs, l'API DirectStorage de Microsoft permet maintenant aux applications (principalement jeux mais pas que) de programmer des transferts de données d'un SSD NVMe directement vers le GPU. Ce genre de techno était plutôt dans une niche auparavant soit pour optimiser des choses en interne des noyaux soit pour éviter de la fuite/manipulation de données entre VMs sur une même machine (dans le cas où l'hyperviseur donne l'accès direct à un périphérique physique à une VM, sans IOMMU, l'invité pourrait utiliser ce périphérique pour manipuler les données directement en mémoire physique), ou pour restreindre l'accès à la mémoire centrale si un périphérique n'est pas digne de confiance.

Il existe également des API équivalentes côté monde UNIX pour programmer des transferts de données directs entre périphériques (entre deux cartes réseaux ou une carte réseau et un disque).

Le 15/06/2024 à 22h 51

C'est moi ou c'est Poutou sur la dernière planche ? :D

Le 13/03/2024 à 00h 50

Je trouve ça dommage depuis le début de leur aventure qu'ils soient partis sur du ARM et non du RISC-V. :craint: Après, c'est pas un processeur COTS/pour le commerce (même B2B), c'est un costum chip pour des supercalculateurs européens, ils doivent avoir un cahier des charges long comme le bras et avec une pression de fou (en terme d'objectifs et de délai).

Le 26/12/2022 à 11h 22


fdorin a dit:


Je ne sais pas ce qui est le plus inquiétant : avoir vu qu’il ne fallait pas cliquer, ou reconnaitre le lien AVANT même d’avoir cliqué ? :D


Je ne connais pas le lien par cœur mais je me doutais très fortement de ce que j’allais y trouver et j’ai vu juste :D



Bonnes fêtes à tous et à toute l’équipe NextINpact :smack:

Le 18/10/2022 à 09h 20

Cela dit, la version précédente était très certainement déjà vulnérable à ces attaques-là et cette nouvelle version corrige tout de même bien d’autres failles. Donc même s’il reste des vulnérabilités connues, cette nouvelle version reste plus sûre que la précédente donc elle est toujours utile, en attend la prochaine version corrigeant ces dernières failles.

Le 03/07/2022 à 10h 25

Voilà, contribution faite. J’ai pris le pack magazine + stickers et rajouté 5€ de don pour faire un total de 32€ (livraison incluse) comme la dernière fois avec le magazine #3 (parce que vous avec réduit le tarif de cette contribution !!!) :fou:



Bon courage à vous, nous sommes tous avec vous !



71% à l’heure où j’écris ce message. L’objectif approche :chinois: :love:



EDIT: d’ailleurs elle est où la page remerciements sur le site ? Je n’ai pas réussi à la trouver.

Le 16/04/2022 à 12h 22


Zeratool a dit:


Merci pour ces nouveaux boutons largement plus lisibles.


J’allais dire la même chose, GROS +1 !

Le 30/03/2022 à 09h 32

Attention à la formulation :
“une évolution de la base au niveau de sécurité r62 d’Android 10”
laisserait entendre que le système se base sur Android mais c’est faux. Sailfish OS est une distribution Linux et non une distribution Android (lui-même étant un fork de Linux, soit).
C’est la base du support des applications Android qui a été mis à jour.

Le 21/03/2022 à 22h 17


(reply:2062469:le hollandais volant)


Merci pour toutes ces précisions :D

Le 21/03/2022 à 14h 02

Si je ne m’abuse il y a un rapport 10^3 à 10^4 entre un électron et un proton (ou anti-proton du coup) ce qui rend le poids de l’électron négligeable par rapport à celui d’un proton.



Du coup cet atome hybride “pèserait” environ 50 % de plus qu’un atome d’hélium classique (3 masses de proton au lieu de 2).

Je ne comprend toujours pas pourquoi l’article parle de l’électron au singulier et non au pluriel, l’atome d’hélium devrait en avoir deux (étant donné qu’il y a deux protons dans le noyau)



Du coup, avec le poids de l’électron étant négligeable vis-à-vis du poids du (anti)proton, on devrait même être au double de la masse pour cette atome hybride, non ?

Le 21/03/2022 à 12h 57


(reply:2062415:le hollandais volant)


Importante différence de masse entre un électron et un antiproton mais relativement parlant, ça donne quoi comme différence sur l’ensemble de l’atome d’hélium classique versus d’hélium avec antiprotons à la place des électrons ?

Le 21/03/2022 à 12h 48

L’accélération matérielle est le fait d’utiliser une unité de traitement dédiée à la tâche en question et non d’utiliser le processeur qui lui reste générique et programmable logiciellement.



Dans le cas de la vidéo, tous les GPUs comprennent une unité de décodage matériel de la vidéo dans différents codecs. L’AV1 étant relativement récent, seuls les GPUs les plus récents sont capables de le décodé matériellement et ont donc une part faible dans le parc mondial.



Les avantages principaux de ce genre d’unité de traitement sont leur faible consommation et leur performance vis-à-vis d’une solution logicielle (étant donné que ces unités ont été spécifiquement conçues pour réaliser cette tâche contrairement aux CPUs). La partie performance permet justement en principe de supporter des formats vidéo (genre de la 4K/8K) que le CPU de la machine ne serait pas capable de décoder suffisamment rapidement pour tenir le framerate de la vidéo (sous condition que le média et le bus mémoire possède suffisamment de bande passante pour alimenter le GPU bien sûr).
Même pour les CPUs plus performants, cela permet de dégager de la charge de leur côté pour faire autre chose ; pratique si vous faites autres choses (jeu, bureautique, navigation web, développement…) avec une vidéo YouTube en incrustée ou sur un autre écran par exemple.



Dernier avantage pour le cas du décodage vidéo, ces unités se trouvent dans le GPU, ce qui permet au flux vidéo décodé (qui peut demander énormément de bande passante suivant la résolution) d’être au plus proche de la sortie vidéo à destination de l’écran, économisant beaucoup d’envois de données vers le GPU depuis le CPU si c’était ce dernier qui avait fait le décodage.

Le 08/02/2022 à 13h 41

De toute manière, la solution à long terme, c’est le RISC-V ! :incline: :fumer:

Le 03/01/2022 à 23h 54

Ça fait beaucoup de transistors gaspillés, entre l’AVX-512 et les e-core (sur desktop)…

Les E-cores ont tout de même une utilité et permettent d’économiser de l’énergie lorsque le processeur est peu demandé. Désactiver/bloquer l’utilisation de l’AVX-512 alors que les unités de traitement sont là est un gaspillage pur et dur.



Les unités de traitement AVX-512 sont là, même si ce n’est pas forcément très utile pour le public visé par ces processeurs, c’est trop tard, elles sont dans le design et sont gravées. Et le client les paient tout de même !
La consommation de ces unités de traitement est, certes, importante, mais elles sont très efficaces ! Ça peut provoquer un pic de consommation et de chaleur mais les calculs seront terminés bien plus rapidement et en consommant au final moins d’énergie.
Les processeurs sont de nos jours parfaitement capables de s’auto-réguler en cas de problème de chauffe ou d’alimentation, et ce genre d’unités de calculs consomment quasiment 0 (en micro voire nano ampères) lorsqu’elles ne sont pas utilisées.



Ce ne sera pas forcément un mal que Intel retire ces unités de la prochaine gen mais pour la gen 12, elles y sont, on les pait, c’est vraiment un mal qu’Intel bride quelque chose pour lequel le client a payé.

Le 03/01/2022 à 10h 52


qui n’est alors pas toujours bien gérée par les applications.


C’est surtout le rôle de l’OS de faire son boulot et de migrer un thread exécutant une instruction AVX-512 sur un cœur en étant dépourvu sur un cœur disposant de l’instruction demandée.
Après, si l’application a demandé à l’OS de n’exécuter le thread en question que sur les E-cores, tant pis pour elle, là ça sera de sa faute et l’OS peut lui envoyer un signal “illegal instruction”.



Je pense que cette histoire est surtout une volonté commerciale d’Intel de garder l’AVX-512 sur ses Xeon et c’est maintenant un bon gaspillage de transistors puisque les P-cores en sont pourtant bien pourvus…

Le 15/12/2021 à 19h 14


Fort de cette expérience, l’ANFR en déduit « qu’une augmentation du trafic de la 5G conforme à l’indicateur d’exposition introduit par l’ANFR devrait à terme engendrer une augmentation de l’ordre de 20 % sur le niveau global de l’exposition ».


Euh mais à terme, les usagers vont transiter de la 3/4G vers la 5G générant donc du trafic sur les bandes de la 5G mais moins de trafic sur les bandes des 3 et 4G. Est-ce que cela a bien été pris en compte dans leur estimation ?

Le 17/11/2021 à 11h 29

:top: Bravo aux premiers Pirates membres d’un gouvernement au monde :top:
Surtout étonné (mais dans le bon sens du terme) et ravi qu’ils héritent du ministère des affaires étrangères.
Autant le premier sur le numérique, c’est leur cible principale (avec le modèle démocratique), autant niveau relation internationale, je ne connais pas leur orientation sur le sujet.

Le 02/11/2021 à 19h 42

J’ai créé un compte Ulule rien que pour vous :smack:



Participation réalisée ! Ne changez rien.
:inpactitude:

Le 30/08/2021 à 21h 45

La scalabilité d’un “processeur” ne dépend pas seulement de lui-même mais aussi du logiciel qui l’exploite (aussi bien applicatif que l’OS, et en particulier son scheduler/ordonnanceur), et de la bande passante de la mémoire et/ou du stockage (voire du réseau) si le logiciel en question en demande dans des proportions importantes.



Les Ryzen ont une architecture plutôt straight-forward avec un seul contrôleur mémoire (contrairement aux Threadrippers basés sur Zen1), sous forme d’arbre (contre l’architecture en anneau chez Intel pendant un temps (et peut-être encore aujourd’hui ?)) et pas de partage d’unité de calcul entre cœur comme sur Bulldozer. Il n’y aucune raison que les cœurs en eux-mêmes ne soient pas scalables, à part pour des raisons qui leur sont extérieures : refroidissement insuffisant donc moins de boost, cache L1, L2 ou L3 trop petits pour l’application (juste le L3 sur Zen* qui est partagé entre cœur, L1 et L2 sont dédiés à un seul cœur sur cette architecture) ou bande passante (mémoire, stockage, réseau) insuffisante pour nourrir plus de cœurs.



Et justement dans le cas de l’outil de bench que tu considères, ça doit certainement consommer pas mal de bande passage du stockage et dans une moindre mesure de la mémoire.
Fait tourner un test purement CPU et tu verras que les Ryzen sont parfaitement scalables.



Et même dans le cas des Threadrippers en Zen1, si l’application est designée de sorte a prendre en considération l’architecture avec deux contrôleurs mémoires, ça sera tout aussi scalable.



Et enfin, comme l’a dit @David_L, les benchs théoriques sont pas vraiment la réalité. Bien sûr qu’il peut t’arriver de devoir compresser ou décompresser des fichiers ou de faire d’autres calculs parallélisable mais de nos jours, un CPU travaille rarement pour une seule application, tout simplement car on, en tant qu’utilisateur, utilise plusieurs applications en même temps, mais aussi car l’OS fait aussi tourner tout un tas d’autres services en taches de fond.



* sur les Ryzen 5900X et 5950X, il y a deux caches L3 (un par CCD) ce qui peut amener le même genre de soucis que deux contrôleurs mémoires mais tes tests n’ont pas relevé de problème dans la linéarité des performances de 8 jusqu’à 11 coeurs donc pas là que se situe le goulot d’étranglement pour ton bench en particulier.

Le 17/07/2021 à 14h 41


Elles sont tout le temps énormes et je commente rarement mais là, la 3 avec Clippy en Castex (ou Castex en Clippy ? :keskidit: ) m’a fait explosé de rire. Bravo !



:dix: :dix: :dix:

Le 19/05/2021 à 09h 13


Il sera par contre intéressant de tester ces modèles pour voir si des modifications dans leur consommation ou leur capacité d’overclocking découlent des changements opérés.


Si c’est effectivement le cas, ça pourrait justement permettre à AMD de sortir des refresh en XT avec des fréquences (très) légèrement augmentées avec ces nouveaux CCD (cœurs). Il y a déjà des rumeurs à ce sujet qui courent sur le net.

Le 08/12/2020 à 20h 06

Je pense que cette “Journée internationale de préparation aux épidémies” est nouvelle/vient juste d’être déclarée par l’ONU, d’où l’article.
De plus, le 27 décembre ne serait-il pas la date du premier cas officiellement déclaré de Covid-19 en Chine l’an dernier ?

Le 08/10/2020 à 19h 43


sephirostoy a dit:


Je crois que mon 2600 a trouvé son successeur… (i7 2600, pas Ryzen 2600 :D ).


Mon 2600 aussi commence sérieusement à chercher un successeur (i7 2600k). Je vais juste attendre quelques mois de plus pour laisser le temps à AMD de peaufiner les BIOS et surtout pour réfléchir à quel CPU prendre entre 5800X, 5900X et 5950X :mad2: Peut-être le dernier pour garder ma nouvelle bécane 10 ans comme l’actuel qui s’en approche beaucoup.

Le 07/07/2020 à 23h 45


AncalagonTotof a dit:


Dommage de ne pas voir un 3950XT. Vont-ils faire comme l‘an dernier ? Attendre quelques mois avant de le sortir ? Pour 100 ou 200 € de plus ? Je risque de craquer (le slip ;-) ) avant sur un 3950X.


Je ne pense pas. Les prochains CPU chez AMD seront les Ryzen 4000 (en Zen 3 et à ne pas confondre avec les APU qui arrivent en ce moment) avant la fin de l’année ! Pas vraiment la place dans le calendrier pour sortir et laisser vivre un nouveau produit. AMD/Lisa Su (PDG) a communiqué aujourd‘hui pour célébrer l’anniversaire des Ryzen 3000 (77) et la sortie de ces nouvelles variantes XT en concluant que Zen3 est bien dans les clous côté planning pour sortir d‘ici la fin de l’année.

Le 30/06/2020 à 19h 26


Albirew a dit:


PPC -> x86_64 -> ARM Ce sera quoi la prochaine architecture? SPARC? MIPS? :D


Comme David, je vote RISC-V ! L‘avantage ? ISA (le jeu d’instructions) et ses extensions sont libres de droit, aucune royalties à payer comme c‘est le cas pour ARM.

Le 09/06/2020 à 14h 34

On passe de « pouvant » à « qui provoquent ».



Oui mais aussi de « une maladie grave » à « des maladies graves ».

Est-ce que cela à une importance dans le débat ? C’est une bonne question.

Le 05/06/2020 à 10h 48

Oui, ils sont doués, ils font des lois sans même savoir si c’est applicable. Que d’argent du contribuable perdu à payer des heures au carré…

Le 02/06/2020 à 21h 47

C’est justement dans le domaine de l’embarqué que je l’emploie tous les jours au travail <img data-src=" /> On compile en C99 et on a également un paquet de règles de codage comme celles dictées par l’ANSSI dans son document.

Le 01/06/2020 à 22h 10







Witcher a écrit :



LOL le C a été abandonné depuis 30 ans pour le C++ !





Ah bon, il n’y a eu que le C89 ? Première nouvelle !!

Il y a pourtant eu une révision en 1999 (C99) et une en 2011 (C11) et une nouvelle est à venir dans quelques années prénommée pour l’instant C2x (sans parler des versions “bugfix”/mineures C95 et C17…).



Le C est encore utilisé dans de nombreux domaines. J’en fais tous les jours au travail…



Oups, j’ai feed le troll <img data-src=" />


Le 21/04/2020 à 19h 50







Ricard a écrit :



Mouais pareil. AUtant rester sur la version livrée avec l’appareil.





Et le suivi des mises à jour ?! OnePlus a maintenu pendant plusieurs années son OnePlus 3 mais il est maintenant bloqué en Android 9 (il est sorti avec Android 6 quand même !) avec le patch d’octobre 2019. Je vais donc certainement sauter le pas vers une ROM costum toujours maintenu dans pas longtemps pour mon appareil. Celle-ci va s’ajouter à la liste des candidates.


Le 09/04/2020 à 22h 15







OlivierJ a écrit :



Les opérateurs sont les premiers à surveiller leur réseau. l’ANFR n’est pas là pour ça.









Norde a écrit :



&nbsp;

Je rajouterai que les campagnes de mesures / contrôle permettent de prévenir les dérives / relâchements.





Tu as la raison juste au dessus de ton dernier message : les opérateurs contrôlent aussi leur réseau pour pas se faire taper sur les doigts et éviter les amendes puisque c’est la loi. Ils ne le font pas gracieusement et par pur bonté.


Le 11/02/2020 à 11h 11


secouss a dit:


(tu jette un disque sur 3)


:cap: Un plateau sur 3.



Enfin, si les plateaux peuvent être testés/vérifiés avant d’être montés dans un disque dur, j’espère…

Le 21/08/2019 à 11h 44







Teuf a écrit :



Nous allons très certainement repousser au 21 septembre. Mais je n’ai pas les moyens de mettre à jour mon billet ce soir.









Titia a écrit :



21 septembre !! XD





Vous me sauvez les gars !!! <img data-src=" />


Le 19/08/2019 à 19h 28

Noooooon, rencontre à Bordeaux le samedi 14 septembre, le seul weekend de septembre où je suis pris <img data-src=" />

Le 26/07/2019 à 23h 37

Je suis d’accord avec toi, il faut bien trouver un “dénominateur commun” pour brancher deux langages si différents dans leurs grands principes, qui est donc l’ABI du C.



Néanmoins, ce dénominateur commun n’est justement que l’interface binaire des wrappers vers le langage de destination. Sachant que le langage de destination est utilisé pour écrire ce même wrapper, il peut utiliser dans son implémentation les spécificités du langage de destination, mais évidemment pas dans son interface, limitée par l’ABI du C.



Mais une fois le LTO passé, ces wrappers étant généralement courts, ils auront certainement été inlinés donnant un overhead proche de zéro.



Enfin, ça reste du travail pas fait en simplement quelques jours. Pour les types/classes échangés entre les deux langages, il faut faire des wrappers pour tous les services ; pour ce qui est template, il faut faire une “moulinette” qui génère ces wrappers ou les faire à la main comme pour les classes s’il y en a juste quelques-uns, sinon vite chronophage.



Bref, je raconte quasiment la même chose que toi, nous sommes d’accord <img data-src=" />

Le 26/07/2019 à 16h 13

Je n’ai pas lu tous les commentaires, la discussion est longue mais une nouveauté toute récente concernant l’interopérabilité C++/Rust, les dévs de Firefox ont réussi à faire du LTO (link-time optimization) entre fichiers objet issus de C++ et de Rust !!!

&nbsp;<img data-src=" />

https://www.reddit.com/r/cpp/comments/ch7g6n/mozilla_just_landed_crosslanguage_l…



C’est un peu le niveau ultime de l’interopérabilité quand même… Faut juste que Microsoft se mette à la page <img data-src=" />

Le 11/06/2019 à 21h 31

Mon Intel i7 2600K et ses failles HW à répétition avec patchouille SW plombant les performances petit à petit va officiellement partir à la retraire cette année ! Certainement pour un 3700X, voire 3800X… ou un 3950X si le banquier le permet ?! :iloveyou:
En tout cas, super article ! Ça en fait presque oublier la perte de HFR l’an dernier !

Le 20/05/2019 à 11h 57


(quote:41574:ZX81.1)
La gestion du PCIE 4.0 est sur le CPU. Il faudra un Ryzen 23 (Zen 2) pour en profiter, et peut-être pas sur toute les CM. AMD laisse cette option à la discrétion des fabricants. D’après les premières infos, seuls les ports proches du CPU pourront en profiter sur les anciennes CM.


:cap:

Le 28/02/2019 à 22h 42


David_L a dit:


AS arrive dès Gen11, pas besoin d’attendre un hypothétique GPU pour en profiter. Vu que ça fait des années qu’Intel fait des promesses dans le vide à ce sujet, c’était la moindre des choses :D


C’est bien ce qu’il me semblait :yes:

Le 28/02/2019 à 00h 22


Charly32 a dit:


Merci pour ta réponse !J’ai l’impression que ce qui a le plus freiné l’adoption des écrans freesync c’était…l’obligation de posséder un GPU AMD. Dans mon entourage, ça commence à sérieusement considérer les écrans Freesync depuis que nVidia les supporte.


Sans oublier qu’Intel va supporter l’AdaptativeSync (la norme sur laquelle se base FreeSync, ce dernier n’étant au final que le programme de certification d’AMD avec des critères en plus du simple taux de rafraichissement variable) sur ses GPU dédiés à venir l’an prochain et devrait même commencer à le supporter sur ses prochains iGPU de mémoire.
Bref, même si AMD ne détient pas la couronne des performances, ils ont encore une fois réussi à imposer les technologies qu’ils développent (x86_64, Mantle qui a donné naissance à DX12 et Vulkan, et maintenant Free/AdaptativeSync, et j’en oublie certainement).

Le 19/12/2018 à 16h 27

Bon, je verrais ce soir à la maison car son mon Firefox ESR 52.4 (32-bits) du boulot (derrière un proxy d’entreprise), j’ai essayé deux fois de l’ouvrir et à chaque fois il fait freezer mon navigateur quelques secondes jusqu’à que Firefox me propose d’arrêter le script qui bloque tout le monde… Et ensuite, sans javascript, il n’y a plus grand chose qui fonctionne. Bref, vous devriez certainement faire un peu plus d’asynchrone par ci par là dans votre code pour débloquer le navigateur.



Sinon, impatient de voir ça ce soir, encore quelques heures à tenir !!! <img data-src=" />

Le 04/12/2018 à 23h 29

Effectivement, ça m’a fait tiquer un peu aussi. J’aurais écris “utilise […] pour la troisième fois” tout simplement. Cela dit, je ne suis pas un expert et je me suis fait avoir avec “après que” et la conjugaison du verbe de la subordonnée derrière la dernière fois donc mon avis est à prendre avec des pincettes <img data-src=" />

Le 28/11/2018 à 21h 45







fred42 a écrit :



Article 212 du Code civil :

Les époux se doivent mutuellement respect, fidélité, secours, assistance.



Ce n’est pas un délit pénal, mais c’est bien contraire à la loi.





Tu peux avoir des relations extra-conjugales tout en étant fidèle. L’un n’exclut pas l’autre. En effet, comment font les couples libertins ? Ce n’est pas parce que tu as des relations avec d’autres que tu n’es plus fidèle envers ton ou ta compagne. S’il y a commun-accord entre les deux mariés sur le sujet, je ne vois pas en quoi la fidélité serait rompue. Ce n’est cependant que mon humble avis, je ne suis pas juriste.



Après, si l’un des deux changent d’avis et lance une procédure de divorce, ça doit être compliqué à prouver que les relations extra conjugales étaient “légitimes” et ne rompaient pas le devoir de fidélité.


Le 21/11/2018 à 13h 28

I stand corrected!



Plus qu’à attendre la prochaine révision de la langue français pour que “après que” suivi d’une subordonné au subjonctif soit accepté <img data-src=" />

Le 21/11/2018 à 13h 25

“après qu’Elon Musk eut tiré […]” alors ? <img data-src=" />



Nan mais franchement, il ne vaut pas chercher des exceptions à “après que”. Le traitement de la subordonnée suivant “après que” est déjà une exception au traitement nominal des subordonnée après “que”… Avez-vous saisi le jeu de mot au passage ? <img data-src=" />



Bref, la langue française dans toute sa splendeur encore une fois.



Cependant, il y a quand même de nombreuses règles dans la langue française qui sont là pour faire sonner la langue plus poétique et je dois avoir la même oreille que @Vekin sur ce cas-là car je trouve bien que “après qu’[il] ait tiré […]” sonne mieux que “après qu’[il] a” (ou “eut”) “tiré […]”…

Mon cerveau avait d’ailleurs bien lu “ait tiré” instinctivement dans un premier temps avant qu’il ne se rende compte qu’il y avait désaccord entre l’instinct et ce que mes yeux voyaient. J’ai bugué et pris deux secondes de plus avant de réaliser pourquoi mon cerveau avait arrêté de lire de lui-même <img data-src=" />

Le 21/11/2018 à 11h 50

Je me disais exactement la même chose, ça devrait être du subjonctif dans ce cas. J’ai d’ailleurs remonté l’erreur par l’outil officiel, les commentaires ne sont normalement pas faits pour ça.

Le 19/11/2018 à 21h 47

Il n’y a que moi qui ait remarqué que le logo de Cmder est la lettre grecque lambda ? Or lambda fait parti du logo d’Half-Life dont on fête aujourd’hui ces 20 ans !!! Half-Life 3 confirmed?!



ps: désolé, fallait la faire et personne n’a osé avant moi <img data-src=" />

Le 16/11/2018 à 11h 12







Iryngael a écrit :



Et le site Inpact Hardware c’est pour quand ? <img data-src=" />





Attends la news de lundi à ce sujet !!! Impatient… <img data-src=" />

Mais moi aussi je n’en peux plus d’attendre des news et des beaux dossiers HW sur leur site dédié <img data-src=" />


Le 07/11/2018 à 17h 10







ragoutoutou a écrit :



Les tout premiers multi-coeurs intel, les Pentiums D, continuaient d’ailleurs à communiquer via bus multiplexé et chaque core devait passer par le northbridge sur la carte mère pour communiquer avec son voisin là où les Athlon X2 bénéficiaient d’un pont direct dans la puce.





Les Core 2 Duo corrigeaient ce problème des Pentiums D mais Intel avait toujours le même problème avec les Core 2 Quad qui étaient en fait deux Core 2 Duo dans le même package et qui communiquaient ensemble à travers le northbridge comme les deux coeurs d’un Pentium D, n’est-ce pas ? Problème qu’Intel n’a corrigé qu’avec l’arrivée des Nehalem.



C’est vrai que tant bien même Intel a mieux réussi commercialement (sans juger sa manière de faire) qu’AMD, ce dernier a apporté d’avantage d’innovations que son concurrent. De même côté GPU avec Mantle plus récemment ayant donné ensuite naissance à DX12 et Vulkan, ce dernier ayant totalement dépassé le simple cadre des PCs en atteignant smartphones et consoles (la Switch, pourtant en Nvidia, supporte le Vulkan il me semble). Également pour Freesync qui a été adapté dans les standards ouverts et devrait être supporté par les GPU Intel d’ici quelques temps. En espérant pour les fanboys Nvidia que Nvidia s’y mette aussi à terme…


Le 07/11/2018 à 15h 32

Déjà abonné depuis 54 mois et jusqu’à octobre prochain, je vais me réabonner pour deux ans si possible ce soir et faire un petit don de 2€ en prime pour arrondir la facture à 50€ <img data-src=" />

Et trop impatient de voir arriver INpact Hardware. Même si vous avez déjà bien décortiqué le dernier événement d’AMD avec les quelques infos qu’ils ont données, j’espère pouvoir lire une description architecturale et un test détaillés des Ryzen 3000 sur INpact Hardware l’an prochain ! <img data-src=" />

&nbsp;

Keep up the good work! <img data-src=" />

&nbsp;<img data-src=" />