votre avatar

SartMatt

est avec nous depuis le 31 octobre 2003 ❤️

349 commentaires

Le 02/12/2019 à 12h 30

Le renouvellement à échéance du permis de conduire et de la carte d’identité sont gratuits actuellement (et depuis plus de dix ans, puisque j’en suis déjà à ma deuxième carte d’identité gratuite).

Le 27/11/2019 à 11h 30







KP2 a écrit :



Si t’as l’impression qu’on manque de “pouvoir”, c’est parce qu’on est tout petit pays de 70M d’hab. L’UE n’est pas la cause de nos “ennuis”, elle est la solution (ou pourrait l’être) si seulement on arrêtait d’y aller en freinant des 4 fers et en y envoyant nos chêvres qui utilisent ce moyen juste pour gagner des sous en attendant de revenir triomphalement (ou pas) dans la politique nationale…





+1. Toute seule, la France est un marché que n’importe quel industriel peut se permettre d’ignorer.

Ensemble, l’UE est aujourd’hui le plus gros marché du monde, devant l’Amérique du Nord, devant la Chine…


Le 27/11/2019 à 11h 20







eglyn a écrit :



Effectivement je n’avais pas pensé aux contraintes supplémentaires d’un téléphone IP68.



Du coup, il faut savoir ce qu'on veut, on ne pourra pas avoir un tel super fin, écran à 100% de la surface et étanche avec une batterie amovible :/      





je pense qu’il faudrait regarder surtout du côté de la fiabilité des batteries, améliorer leur durée de vie pour qu’elle soit en accord avec la durée de vie de l’appareil.



 







Pour l’étanchéité, c’est pas vraiment un problème. Un panneau arrière fixé avec quelques petites vis et un bon joint, comme sur les montres, et c’est réglé.



Pour la finesse, franchement, a-t-on vraiment besoin de téléphones aussi fins ? Un téléphone d’1cm d’épaisseur au lieu de 7mm, ça serait pas franchement la mort, non ? Perso j’irai même jusqu’à dire que justement, les téléphones d’aujourd’hui sont devenus trop fins, et du coup ils tiennent pas bien en main… Perso c’est pour ça que j’y ajoute désormais une coque, alors que quand ils étaient plus épais je n’en mettait jamais…



Et je suis même pas sûr qu’un dos plus facilement amovible, fixé avec des vis plutôt que des clips et de la colle, augmenterait vraiment beaucoup l’épaisseur… Si on veut un système permettant de retirer la batterie sans outils, là oui, ça risque de se payer sur l’épaisseur. Mais juste pouvoir la retirer avec un petit tournevis plutôt que de devoir forcer des clips plastique, au risque de les casser, et arracher de la colle, je suis pas convaincu que ça changerait grand chose à l’épaisseur. Ça augmenterait juste la complexité de l’assemblage initial…


Le 27/11/2019 à 09h 45

150000€ d’amende, c’est ridicule face à des grands groupes comme Apple, Google, Samsung et cie…



Ce qu’il faudrait, c’est purement et simplement interdire la commercialisation de ce genre de produits.



Et il faudrait aussi pousser vers un maximum de standardisation des batteries, et à minima, une standardisation de leur interface, pour qu’il soit aisé de produire des batteries de rechange compatibles, tout en interdisant bien sûr les systèmes détectant les batteries non officielles et dégradant le fonctionnement de l’appareil en cas de détection… La route est encore longue…

Le 23/11/2019 à 22h 51







Cumbalero a écrit :



Il pouvait contacter Free pour avoir du fullstack, aucune idée du délai, ou on pouvait en profiter pour faire ce changement dont on avait déjà parlé.





Pour info, je l’ai fait récemment, c’est trois clic à faire dans l’espace client puis un reboot de la box 30 minutes plus tard et c’est réglé.


Le 21/11/2019 à 16h 55

Tu as raison je pense. Je viens de tester, le setRequestHeader de XmlHttpRequest n’autorise pas à setter le header Host :)



J’ai trop l’habitude de curl qui permet de faire un peu ce qu’on veut, j’avais oublié que l’environnement JS est très restrictif.

Le 21/11/2019 à 10h 43

Le paramétrage spécifique du serveur, ce n’est pas une grosse difficulté, puisque c’est le serveur de la régie pub, donc elle a la main pour la paramétrer comme elle veut.

En réalité, il n’y a même pas besoin de paramétrage spécifique : la plupart des serveurs HTTP ne tiennent pas compte du hostname dans leur configuration par défaut… Ils ne tiennent compte du hostname que s’ils sont configurés pour en gérer plusieurs, et même comme ça, c’est en général configuré avec un vhost “collecteur” qui va servir tout ce qui ne match pas un des autres vhost.



Et côté client, à priori la requête peut être forgée et envoyée via JavaScript, donc là encore, même si ça s’exécute sur le client, ça peut être à la main de la régie publicitaire, qui fournit le code JavaScript.



Donc j’aurais tendance à penser que c’est bel et bien à la porté des régies publicitaires de faire ça…

Le 20/11/2019 à 20h 10







Zerdligham a écrit :



Je pense qu’il a bien compris, mais qu’il voulait juste dire que le proxy bloquerait les requêtes http qui sont directement des IP.





Une requête HTTP contient toujours l’IP de la destination (dans l’en-tête de la couche IP), et optionnellement le nom de domaine de la cible (dans l’en-tête de la couche applicative). Techniquement, rien n’empêcherait de mettre un nom de domaine quelconque dans les requêtes DNS over HTTPS, et absolument rien ne permettrait alors de les distinguer d’une requête HTTPS classique, si ce n’est l’IP de la destination (si le firewall est un peu intelligent, il refait lui même la résolution DNS du domaine qui est dans l’en-tête HTTP, et si ça correspond pas à l’IP de destination, il bloque).


Le 10/11/2019 à 11h 35


(quote:44034:Chocolat-du-mendiant)
Et rien au sujet des moins 20% à moins 30% de prix sur les disques externes, par rapport aux disque internes de même capacité les moins chers ?(oui ! j’arrive toujours pas à avaler la couleuvre de devoir acheter 4 disques externes pour mon future RAID, alors que j’ai besoin de 4 disques internes. Ouais! j’économiserai l’équivalent d’1 disque si je prends 4 externes que je “shuck”. Avec tout le gaspillage que ça implique, même si les alim et les câbles peuvent sans doute se revendre)


Attention, c’est pas forcément toujours possible de démonter un disque externe pour le monter en interne. Certains disques externes d’aujourd’hui ont directement le contrôleur et le port USB intégrés à la carte logique du disque, et il n’y a donc plus de connectique SATA (c’est surtout le cas sur les 2.5”, mais peut-être aussi sur certains 3.5”).




(quote:44042:alex.d.)
C’est pire que ça chez Microsoft : ils ont de Ko à 1024 octets, mais des Mo à 1000 Ko (donc 1024000 octets).


Non. Je viens de vérifier, pour un fichier de 355 550 122 octets, Windows 10 m’indique 339 Mo. Il y a donc bien 1 Mo = 1024 Ko et 1 Ko = 1024 octets.



Le Ko à 1024 octets et le Mo à 1000 Ko, c’était utilisé par les fabricants de disquettes quand ils sont passés de 720 Ko à 1.44 Mo. Ça a aussi été utilisé un moment par les fabricants de disques durs. L’origine historique étant que les secteurs font 512 octets, donc ils divisaient le nombre de secteurs par 2 pour avoir la taille en Ko, et ensuite par pas de 1000 pour passer aux Mo et aux Go.

Le 25/10/2019 à 16h 25


fofo9012 a dit:


+1 le pb le titre de l’article pourrait être “Que faire quand on a acheté un switch POE hors de prix ?“En domestique c’est absolument inutile pour la simple est bonne raison que tout prise réseau doit être associé a une prise électrique.


C’est pas parce qu’il y a obligatoirement une prise électrique à côté de la prise RJ-45 dans les normes que ça rend forcément le POE inutile…



D’abord, parce que toute installation n’est pas forcément aux normes. Ensuite, parce que même si on a la prise électrique à côté de la prise RJ-45, c’est quand même plus pratique et plus propre de n’avoir qu’un câble entre l’appareil et la prise que d’en avoir deux. Par exemple, pour installer mon AP Wi-Fi à 4 mètres de la prise la plus proche, j’étais bien content de ne tirer qu’un câble Ethernet…

Le 24/10/2019 à 22h 12


Manozco a dit:


Quel est la reference du boitier/radiateur sur la photo principale ?


Ça a l’air d’être ce modèle : https://amzn.to/2MHqKVz



On le trouve aussi chez Kubii pour les Pi 1/2/3, mais uniquement dans sa version ventilée : https://www.kubii.fr/boitiers-raspberry-pi/2644-boitier-de-refroidissement-pour-raspberry-kubii-3272496298101.html

Le 24/10/2019 à 17h 22







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Donc quid quand on veut faire de l’IPv6 sans NAT mais quand-même donner un accès sortant à un équipement IoT sachant que le firewall de la box n’est pas satisfaisant ?





On met un routeur avec un firewall digne de ce nom.



Il y a un moment où il faut arrêter de vouloir donner à des technologies des fonctionnalités pour lesquelles elles n’ont pas été conçues, et c’est particulièrement vrai quand il s’agit de sécurité : on n’utilise PAS un NAT pour faire de la sécurité. C’est une mauvaise pratique courante, certes, mais une mauvaise pratique quand même. Parce que le NAT, ça a été fait uniquement pour pouvoir donner un accès au réseau public à plusieurs machines via une seule IP publique. Ça n’a jamais été fait pour faire de la sécurité. Et au contraire, l’usage fréquent du NAT a mené à créer des “failles” de sécurité énormes, comme l’UPnP…





33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Et puis on s’insurge que le déploiement stagne dans les grands groupes.





Ça c’est pas parce que c’est compliqué. Pour un grand groupe, le passage à IPv6 n’est pas spécialement compliqué, à fortiori avec le dual stack qui aurait permis une migration progressive. Si ce déploiement stagne, c’est parce que les entreprises ont pour la plupart une vision court terme à ce niveau : tant qu’il n’y a pas nécessité absolue de migrer, on ne migre pas. Donc tant que la pénurie d’IPv4 n’a pas d’effets visibles pour ces entreprises, elles ne vont pas migrer…



Y a qu’à voir le nombre d’entreprises qui commencent à se poser la question de la migration vers Windows 10 maintenant que Microsoft rappelle que Windows 7 arrive en fin de support… Ça démontre vraiment une absence totale de vision à moyen et long terme, surtout quand depuis le temps tout le parc a été renouvelé avec des machines sous Windows 10 downgradées en Windows 7…


Le 24/10/2019 à 11h 20







33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :



Et donc comment on fait pour tous les équipements IoT sur lesquels on ne peut pas installer de pare feu ? Caméra IP ? Balance Withings ? Thermostat connecté ? Convertisseur de protocole ? Sonde d’humidité ? Nabaztag <img data-src=" /> ?





IPv6 donne la possibilité de donner des IP publiques à toutes les machines. Ce n’est pas une obligation. Tu peux tout a fait reproduire le schéma classique de l’IPv4, avec un routeur/firewall disposant d’une IP publique et derrière lui des machines ayant une IPv6 privée (c’est même automatique la plupart du temps, il y a une adresse v6 de lien local, qui est une adresse privée non routable, même quand il y a aussi une ou plusieurs adresses publiques), qui ne seront donc pas accessibles directement depuis le réseau public.


Le 23/10/2019 à 22h 51







Cqoicebordel a écrit :



Et oui, en Europe, la pénurie est là. On parle pas du quidam qui aurait besoin d’une (1) adresse IP. On parle des FAI et fournisseurs de services qui ont besoin d’un gros paquet. Et maintenant, ils sont sur liste d’attente, parce que y’a plus.

&nbsp;





Tout a fait. D’ailleurs, c’est pas juste pour emmerder la rue du Texel que Free met désormais par défaut 4 abonnés sur la même IPv4… S’ils n’avaient pas un manque d’adresses IPv4, ils n’auraient strictement aucune raison de faire ça.


Le 23/10/2019 à 22h 47







Kiroha a écrit :



Va mémoriser une @IP en V6 <img data-src=" />





Oui, c’est compliqué à retenir. Mais a-t-on vraiment souvent besoin de retenir une adresse IP, sans alternative possible ? Perso, que ça soit au boulot où à la maison, la dernière adresse IP que j’ai eu à retenir, c’était mon IP fixe Free de 2003 à 2008. Depuis, je n’en ai plus retenu une seule.



La bonne pratique, c’est de nommer les appareils. Sur le réseau local, ça peut même fonctionner sans serveur DNS. Et au pire, on peut toujours les mettre dans le fichiers hosts si on a aucune autre solution pour le nommage.



À noter aussi qu’à peu près tout ce qui supporte l’IPv6 est dual stack et supporte aussi l’IPv4 en parallèle. Donc si on tient vraiment à mémoriser des IP plutôt que de nommer les machines, sur le réseau local on pourra toujours continuer à utiliser de l’IPv4 en parallèle du v6, puisque la pénurie d’adresses IPv4 n’est réellement problématique que sur le WAN, pas sur le LAN (à moins de vouloir gérer un LAN 16.7 millions d’appareils…).


Le 23/10/2019 à 09h 46


David_L a dit:


Il faudrait voir sur un plus gros panel d’application (il faut que je regarde ce qui peut facilement tourner sur l’une et l’autre). Mais rien qu’un écart si important sur un applicatif aussi commun qu’OpenSSL montre qu’il y a un soucI. Ca recoupe les mauvais scores Sysbench qui avaient été publiés par Free lors du lancement des VM sur la delta.


OpenSSL, c’est commun, mais ça fait de la crypto. Donc l’écart de performances est peut-être simplement une question d’utilisation ou non de l’accélération matérielle de certaines fonctions de crypto, auquel cas l’impact en pratique devrait rester assez limité.



Pour faire d’autres tests, il y a SciMark, PyBench et PHPBench qui peuvent tourner sous Rasbian. Peut-être aussi la suite Phoronix.



Sinon, un test de compression ZIP avec et sans chiffrement peut aussi aider à voir si le problème est spécifique à la crypto ou plus général.

Le 14/10/2019 à 08h 35



Le FAI précise qu’en&nbsp;« cas d’utilisation d’un boîtier fibre optique avec la Livebox le débit est limité à 1 Gb/s

», ce qui ne laisse aucun espoir pour les anciens clients de profiter

d’une hausse du débit en téléchargement car l’ONT est désormais intégré

dans la Livebox 5. Nous avons tout de même demandé confirmation au FAI, mais aussi ce qu’il en était pour l’upload.

Pour le download, c’est logique que ça reste limité à 1 Gbit/s quand on passe par un ONT, puisque la liaison entre l’ONT et la box se fait en Gigabit Ethernet. L’upload devrait pouvoir augmenter par contre.

Le 17/09/2019 à 21h 59







meyrand018 a écrit :



N’ayant que peu confiance dans le service commercial de c+, je pense qu’ils vont nous sortir une offre d’appel avec Netflix en SD pour une seule connexion a un prix d’appel intéressant mais la HD pour 10 balles de plus par mois…





Faut lire un peu plus loin que le titre : “le pack « Les chaînes Ciné/Séries », actuellement proposé à 10 euros par

mois (20 euros hors promotion) passera à 15 euros par mois avec l’abonnement Netflix Standard inclus (deux écrans, HD 1080p)”.


Le 17/09/2019 à 14h 27

Et on peut aussi ajouter qu’avec le HSTS le propriétaire d’un site peut faire en sorte que l’accès en HTTP soit interdit, même si l’utilisateur tape vers un serveur différent à cause d’un DNS menteur.



Le HSTS peut empêcher :





  • de se connecter en HTTP à un domaine donné,

  • de se connecter en HTTPS à un domaine donné si le certificat n’est pas valide (et l’utilisateur ne peut pas mettre d’exception pour passer outre).





    Il faut par contre que l’utilisateur soit allé au moins une fois sur le site légitime pour que son navigateur ait enregistré la politique HSTS du site (il y a aussi une liste de sites pour lesquels la politique HSTS est péchargée par le navigateur).

Le 12/09/2019 à 21h 28

J’ai reçu la souris aujourd’hui, globalement ça reste assez proche de la Master 2S (ça vaut pas franchement le coup d’upgrader pour ceux qui auraient déjà celle là, et je suppose que c’est pareil par rapport à la Master 1, dont il me semble qu’elle était très proche de la 2S).



Je trouve les boutons latéraux un peu mieux placés, ils sont plus proches du pouce. La molette latérale est aussi un poil plus agréable.



Le gros progrès est effectivement du côté de la molette principale : même quand les “crans” sont activés, elle reste quasi inaudible, alors que sur la Master 2S elle est franchement bruyante. De même, il n’y a quasiment plus de “clac” lors du débrayage/embrayage des crans.



Les clics latéraux sont plus discrets, et le clic sous le pouce est inaudible. Les trois clics principaux restent par contre assez bruyants. Donc encore des progrès à faire pour devenir la souris parfaite pour les open-space…

Le 09/09/2019 à 13h 58


Tandhruil a dit:


Je n’ai toujours pas compris pourquoi utiliser des claviers noirs rétroéclairés au lieu de claviers blancs. Même éclairé par l’écran, un clavier blanc reste utilisable.


Déjà je vois un gros avantage aux claviers noirs : ils sont moins salissant et vieillissent mieux. Après, perso je trouve que c’est aussi plus reposant qu’un clavier blanc.



Par contre le rétroéclairage, perso je m’en passe très bien, vu que je regarde très peu mon clavier. Sur mon K800, il est éteint. Mais je vois quand même un avantage aux claviers noirs rétroéclairés par rapport aux autres claviers noirs : le marquage des touches est “inusable” (puisque c’est dans la masse, sauf sur certaines daubes où le plastique est intégralement translucide et peint en noir…), contrairement aux touches imprimées, et parfaitement lisse, contrairement aux touches gravées.

Le 08/09/2019 à 08h 02


cedricpc a dit:


Et j’irai même plus loin, quelqu’un qui passe sans cesse de l’un à l’autre, n’aurait-il pas plutôt intérêt à configurer son PC pour fonctionner avec la disposition Mac ou inversement, de sorte de n’avoir qu’une seule et même méthode de saisie ?


C’est pas faux :yes:




cedricpc a dit:


Si c’est comme avec d’autres modèles, elle serait apparemment accessible via +B. Ceci dit, c’est effectivement pénible toutes ces libertés que prennent les constructeurs sur la disposition historique des touches, quand certaines ne sont pas tout simplement supprimées, elles sont planquées ailleurs, et bien évidement, d’une marque voire d’un modèle à l’autre, c’est complètement différent, le pire étant sans doute avec les portables.


Le Fn+B ça a pas l’air de marcher à tous les coups, perso j’avais jamais réussi sur un clavier où c’était censé marcher (en fait, ça marchait quand il y avait besoin juste de Pause, mais les combinaisons du genre Win+Pause ne fonctionnaient pas avec Win+Fn+B).
Pour les portables, c’est excusable de prendre quelques libertés, il y a peu de place. Pour un clavier pleine taille par contre, j’ai du mal à comprendre… Ici il aurait par exemple suffit de garder les 3 touches PrtScr, ScrLck et Pause à l’endroit habituel et de les utiliser pour switcher entre les postes quand elles sont combinées avec Fn… Ou mieux, mettre le switch sur Fn+1, Fn+2 et Fn+3 pour garder la numérotation… Je comprends pas.



C’est comme la sale habitude qu’avait Logitech à une époque de fusionner Ins et Del en une seule double touche verticale. Supprimer une touche, sans même que ça soit justifié par un besoin de place pour une autre…

Le 07/09/2019 à 21h 03


cedricpc a dit:


Qu’ils fassent plutôt deux variantes, voire trois en gardant la variante unifiée s’ils pensent vraiment qu’il y a un marché si énorme pour celle-là.


Il y a sans doute bien une demande pour des versions unifiées : dans la mesure où c’est un clavier prévu pour pouvoir switcher entre plusieurs machines, ça s’adresse notamment aux gens qui ont un Mac et un PC (ce cas d’usage est d’ailleurs mis en avant sur la page de présentation, avec un iMac et un Surface Book).



Après, faire des variantes pourrait être une solution, mais ça fait beaucoup de références à gérer (x3 du coup, Mac, PC et Mac/PC).



Perso ce qui m’embêterai plus par contre, c’est que la touche pause semble avoir disparu (pas la touche multimédia, la touche pause historique…). À moins que ça soit la touche avec le verrou en haut à droite, mais dans ce cas le choix du logo me semble étrange.

Le 06/09/2019 à 10h 05


Daweb a dit:


quand on voit un K800 par exemple qui est juste une merveille, moins chère, et avec des piles AAA


Malheureusement les versions récentes du K800 ont troqué les piles AAA contre une batterie lithium non amovible…

Le 11/09/2019 à 11h 13


OlivierJ a dit:




  1. mais l’hôte ne SAIT pas comment le disque gère ses blocs, déjà ça passe par le filesystem (ok, géré par l’hôte, mais tu comprends).


Le protocole utilisé dans le cas d’un host managed permet justement à l’hôte d’être informé sur ce genre de choses, via de nouvelles commandes dédiées à ça. Voir ici par exemple pour les commandes dans le protocole ATA : http://www.t13.org/Documents/UploadedDocuments/docs2015/di537r05-Zoned_Device_ATA_Command_Set_ZAC.pdf



Ainsi, l’hôte peut déterminer quelles sont les données affectées r quand il veut écrire à un endroit et il peut alors faire le nécessaire pour conserver ce qui doit l’être, et uniquement ce qui doit l’être. Et au passage, il peut réorganiser les données (regrouper en début de zone toutes les données à conserver de la zone, ce qui fait que par la suite de nouvelles données pourront être ajoutées en fin de zone sans avoir à faire de nouvelles opérations de recopie).




OlivierJ a dit:




  1. oui j’ai compris la question des pistes qui se recouvrent, et des performances qui peuvent s’en ressentir. Quelque soit le “manager”, le résultat est le même.


Non, justement, le résultat n’est pas le même. Si le “manager” a connaissance des données à conserver/à supprimer, contrairement au disque. Donc dans le pire des cas (toutes les données affectées par une écriture sont à conserver), on a la même pertes de performances, mais dans le meilleur des cas (que des données qui peuvent être écrasées), on n’a aucune perte de performance en host managed alors qu’on en a en drive managed.

Le 10/09/2019 à 12h 08


OlivierJ a dit:


Merci pour tes explications détaillées, c’était déjà relativement clair pour moi ; mais je persiste à penser que le firmware du disque ne peut que mieux connaître le fonctionnement interne du disque (son nombre de “pistes” réelles, la densité pour chaque piste en fonction de la distance au centre, etc.) que l’ordinateur hôte ; et donc que c’est étrange comme choix.D’ailleurs un commentateur plus bas (aurejac, merci à lui) précise qu’il y a des disques SMR qui sont vus comme des disques normaux, gérant eux-mêmes l’écriture.


Ça marche aussi dans l’autre sens : l’hôte ne peut que mieux connaître les données à conserver et celles qui peuvent être écrasées ;-) Et justement, c’est ça qui est important pour maintenir les performances avec un disques SMR : quand tu fais une écriture qui va déborder sur d’autres données, si tu sais que ces autres données n’ont pas besoin d’être conservées, ça simplifie vachement les choses…




OlivierJ a dit:


D’ailleurs un commentateur plus bas (aurejac, merci à lui) précise qu’il y a des disques SMR qui sont vus comme des disques normaux, gérant eux-mêmes l’écriture.


Oui, et il précise aussi et surtout que ces disques là voient leurs performances s’écrouler quand on écrit à des endroits qui ont déjà été écrits. Parce que le disque dur doit réécrire ce qui est sur les pistes “écrasées”. Alors qu’en host managed, l’hôte peut par exemple savoir que les données n’ont en fait pas besoin d’être réécrites parce qu’elles vont de toute façon être écrasées plus tard, et ainsi on ne ruine pas les performances…



Pour faire une analogie avec un truc plus connu, c’est un peu comme le TRIM pour les SSD. Les anciens SSD géraient de façon totalement autonome (donc “drive managed”) leur pool de pages vierges, et il ne pouvait effacer des pages que quand elles n’étaient plus mappées sur aucune adresse LBA. Le résultat, c’est que ça réduisait la taille potentielle du pool de pages vierges (une fois que toutes les adresses LBA ont été écrites au moins une fois, le pool de pages vierges se limite à l’overprovisioning) et ça obligeait régulièrement le SSD à déplacer des données qui en fait n’avaient plus aucun intérêt, surtout quand le mapping LBA se faisait par bloc d’effacement et non par page : quand il fallait modifier une page du bloc, tout le bloc était recopié. Et avec le temps, ça dégradait les performances, tout en amplifiant l’usure. Avec le TRIM, on a une forme minimaliste de “host managed”, c’est l’hôte qui devient responsable de déterminer les données qui n’ont pas besoin d’être conservées et qui en informe le SSD. On bénéficie alors d’un pool de pages vierges plus grand (overprovisioning + tout l’espace non occupé par des données à conserver), on diminue les recopies de données (quand un bloc doit être recopié pour en modifier une page, le SSD ne recopie plus que les pages contenant des données à conserver, les autres pages sont laissées vierges, ce qui permet plus tard de les écrire sans avoir à de nouveau effacer et recopier le bloc…), on améliore la durée de vie…

Le 06/09/2019 à 22h 59


xillibit a dit:


Est-ce que c’est encore possible d’ajouter des plateaux en plus ? Pour passer à 10 voir plus ?


Ça va devenir compliqué je pense… Déjà 9 plateaux, c’est énorme, un HDD 3.5” fait environ 25mm d’épaisseur, donc en comptant la coque extérieure de chaque côté (sachant que sur les disques à l’hélium, il y a une double coque sur la face supérieure, une première coque classique, vissée et avec des ouvertures pour réguler la pression interne dans le boîtier, et une seconde coque plus fine soudée par dessus pour assurer l’étanchéité), il doit rester un espace de l’ordre d’une 20aine de mm dans lequel il faut empiler 10 bras (en supposant que les 9 plateaux sont double face) et 9 plateaux, ainsi qu’un peu d’espace entre les bras et les plateaux. Doit vraiment plus rester beaucoup de marge de manoeuvre, sachant qu’affiner les plateaux ou les bras n’est pas sans risque pour la fiabilité…

Le 06/09/2019 à 15h 24


OlivierJ a dit:


Merci pour l’explication, mais je trouve quand même ça pas pratique même si on l’utilise pour de l’archivage pur. Après tout, les SSD aussi doivent réécrire les blocs (et lutter contre l’amplification en écriture), mais c’est le disque qui fait tout le boulot. Donc ça reste incompréhensible pour moi le coup de ce disque d’archivage qui ne marche pas de base avec un ordi.


C’est une question de performances. En drive managed, le support de stockage est obligé de faire les réécritures, même si en pratique les données qu’il va réécrire vont ensuite être écrasées par l’hôte.



En host managed, on évite des réécritures inutiles.



Pour un SSD, c’est moins important, car les performances sont très élevées et car la taille des pages et même celle des blocs d’effacement sont relativement faibles (quelques Ko pour les pages, quelques centaines de Ko à quelques Mo pour les blocs d’effacement).



Pour un disque dur par contre, selon la façon dont le SMR est implémenté (le nombre de pistes successives qui se chevauchent entre deux pistes sans chevauchement), la taille “minimale” d’une écriture peut aller de quelques dizaines de Mo (une piste sur le bord extérieur d’un disque récent faisant de l’ordre de 1.5 à 2 Mo) à plusieurs Go. Dans le cas le plus extrême (probablement pas utilisé en pratique), où l’intégralité des pistes se chevauchent, ça peut même aller jusqu’à la capacité du disques. Donc les performances peuvent se retrouver fortement dégradées. Le host managed est même obligatoire dans le cas où la taille d’un bloc de pistes dépasse la taille du cache.



De plus, sur le SSD c’est plus simple techniquement, mais aussi moins risqué, car en pratique les réécritures se font par déplacement des données : on prend une bloc vierge dans le pool de blocs vierges disponibles, on y recopie les données (avec les modifications) et on efface l’ancien bloc pour le mettre dans le pool de blocs vierges. Si l’alimentation est interrompue pendant l’opération, on a toujours les données d’origine, on perd juste les modifications récentes (c’est l’ancien bloc qui reste référencé tant que l’écriture dans le nouveau bloc n’est pas intégralement terminée).



Sur un disque dur SMR, la réécriture se fait sur place, les données sont réécrites au même endroit (d’où le fait qu’on ne peut pas avoir un bloc de taille supérieure à la taille du cache). Et dès qu’on a commencé la réécriture d’un bloc, s’il y a une perte d’alimentation on a une perte de données, pas seulement sur les nouvelles données, mais aussi sur les anciennes.

Le 06/09/2019 à 14h 18


smanu a dit:


Difficultés de fabrication ? Moins de ventes ? ? Ils vont taper dans les 1000 boules ces 18 To.


Depuis un moment les fabricants de disques durs peinent à augmenter les densités de stockage. Du coup, ils compensent en ajoutant des plateaux, ce qui est de plus en plus compliqué (chauffe, vibrations, fragilité…) et coûte forcément bien plus cher à fabriquer. Il y a quelques années, en 3.5”, la plupart des disques durs avaient 1 à 4 plateaux, et quelques très rares modèles en avaient 5. Aujourd’hui, pour les plus grosses capacités de disques, les constructeurs empilent jusqu’à 9 plateaux.

Le 06/09/2019 à 14h 08


Zedwarf a dit:


Pourquoi la course à la capacité continue-t-elle avec des disques durs “classiques”, et non avec des SSD ? Pour le moment, les SSD sont encore plus chers, mais à terme et avec le volume, leurs tarifs devraient continuer de chuter. Les disques durs classiques n’ont pas vocation à disparaitre d’ici 5 ou 10 ans ?


Il y a encore un facteur 5 à 10 entre le prix au Go des SSD et des HDD. Donc pour ceux qui ont des très gros besoins de volumes, sans avoir besoin de performances extrêmes, le HDD reste, et de loin, la solution la plus intéressante.



En outre, les producteurs de mémoire flash seraient absolument incapables aujourd’hui de couvrir la demande de volume qui est assurée par les fabricants de disques durs. Donc si les gros consommateurs de To se tournaient vers les SSD, l’effet ne serait pas une baisse de prix sur les SSD, mais, au contraire, une hausse, à cause d’un marché devenant trop tendu.

Le 09/09/2019 à 09h 29


flodor2 a dit:


Je ne comprend pas le marché de ces routeurs. C’est seulement pour les entreprises ou aussi pour les particuliers technophiles ?Parce qu’on est un peu obligé d’utiliser la box fournie par nos opérateurs pour accéder à certains services comme la TV par exemple.


C’est aussi pour les particuliers (un peu technophiles… ou simplement qui veulent un truc qui marche mieux…). Je dirais même que là on est sur un modèle ciblant bien plus les particuliers que les entreprises.



L’intérêt, c’est qu’on peut avoir des performances supérieures à celles des routeurs des FAI, des fonctionnalités supplémentaires, etc… Et ça permet aussi de configurer le routeur une fois pour toute, sans devoir tout reconfigurer quand on change de FAI.



Et ça n’empêche pas de bénéficier de tous les services de l’opérateur, en mettant les routeurs en cascade. Tu met le routeur derrière la box, tu met l’IP du routeur en DMZ de la box, et c’est bon, il y a juste quelques limitations. Par exemple, la box ne pourra pas accéder au stockage d’un NAS connecté derrière le routeur… mais certains NAS avec double interface réseau peuvent palier cette limitation. Et ça marche très bien dans l’autre sens par contre, si ne NAS est connecté à la box, il sera accessible depuis les machines qui sont derrière le routeur (chez moi, j’ai un Linksys LRT224 pour mettre mon réseau local derrière deux connexions Internet, dont une via Freebox, et j’accède sans problème au disque USB de la Freebox depuis le réseau situé derrière le LRT).

Le 07/09/2019 à 10h 46







alex.d. a écrit :



Ça c’est la plaie des développements confiés à un prestataire : on n’est pas propriétaire du logiciel qu’on a pourtant intégralement financé…





Ce n’est pas le cas ici. Free n’a pas confié à un prestataire le développement d’un logiciel, qu’il aurait donc entièrement financé, il a acheté à un éditeur de logiciel une licence sur un logiciel déjà existant, financé par l’ensemble des clients de cet éditeur.



Vouloir être propriétaire du logiciel dans ce cas, c’est comme si en achetant une licence Windows tu voulais devenir propriétaire de Windows (bon bien sûr, c’est pas la même échelle, on parle d’un logiciels dont les licences se vendent probablement plutôt par dizaines ou centaines vs par centaines de millions).



Dans le cas d’un développement confié à un prestataire, personnellement j’ai toujours vu le client être propriétaire de plein droit du logiciel, avec transfert au client du code source et de toute la documentation en fin de prestation, que ça soit dans le cas d’un développement au forfait ou dans le cas d’une assistance technique. Avec généralement juste une clause de réserve de propriété tant que le client n’a pas payé.


Le 02/08/2019 à 13h 37

Et même sans savoir ses intentions, on peut supposer sans trop se planter qu’elles ne sont pas bonnes…

Le 23/07/2019 à 15h 25

Tu as des miniscules dans ton mot de passe URSSAF ? Parce que chez moi c’est que des chiffres et des majuscules, et c’était déjà le cas sur le mot de passe précédent. Donc j’ai l’impression que ça se limite à ça…



Et accessoirement, ils ont toujours pas été foutu de faire une redirection de urssaf.fr vers www.urssaf.fr…



Y a vraiment des baffes qui se perdent…

Le 23/07/2019 à 15h 21







Mimoza a écrit :



Donc l’interdiction est absurde, l’obtention sur demande bien plus acceptable.





Justement, il n’est pas question d’interdire les tickets de caisse, juste d’interdire leur impression systématique (donc sans demander préalablement au client s’il le veut).


Le 04/07/2019 à 09h 42


Amnesy a dit:


Quand on parle de la gestion de plusieurs écrans de quoi parle-t-on ? D’un seul câble DP / TB entre la source et un premier écran, avec d’autres écrans chaînés au premier ?


Oui, c’est ça. C’est d’ailleurs déjà géré avec les versions actuelles du DisplayPort, j’avais ça sur mes anciens écrans, un écran branché à l’UC, le deuxième écran branché au premier sur sa sortie DP.

Le 28/06/2019 à 08h 23


David_L a dit:


Les deux coexistent depuis des années, je doute que ça change de si tôt :D


C’est clair. Et si l’un des deux devait disparaitre, ce serait sans doute plutôt le DP. Le HDMI est trop bien implanté dans les salons pour disparaitre au profit du DP : il y a énormément de produits sur le marché qui sont uniquement HDMI (à commencer donc par les produits de salon : TV, consoles, set top box, amplis…), alors que les produits uniquement DP sont bien plus rares.



Mais comme le DP s’est relativement bien implanté dans le monde informatique, lui aussi a peu de risques de disparaitre, donc la cohabitation va perdurer.

Le 13/06/2019 à 16h 21







Idiogène a écrit :



J’avais bien compris l’idée, je regrette seulement qu’elle ne soit pas appliquée à ma connaissance à ceux qui roulent sur de longs trajets en dehors des villes car cela pourrait avoir un intérêt là aussi de disposer d’un moteur. Peut-être une question de moralité, les moteurs étant tabous dans les compétitions !





Ben pour ces cas là, le speedbike est parfaitement adapté justement…





Idiogène a écrit :



Oui mais les moteurs et batteries sont lourds, un très bon vélo est le plus léger possible je trouve dommage de créer la catégorie speedbike à partir de pièces manifestement issues du monde du vélo tout terrain/ville sans réellement s’approprier la piste.





Dans les faits, en ville, le poids n’est pas franchement un problème. Parce que de toute façon, on n’a pas forcément très souvent l’occasion de rester à plus de 25 km/h pendant longtemps, et parce qu’un bon vélo de ville n’est pas un vélo le plus léger possible… Un bon vélo de ville, c’est un vélo polyvalent et confortable, pas un vélo de course, et cette polyvalence et ce confort, ça se paye sur le poids, AE ou non (mon vélo de ville, il est dans les 20 kg tout équipé (et encore, je compte pas les 5 à 10 kg d’anti-vol… et le poids du bonhomme et de son chargement ^^), c’est pas 2-3 kg de plus avec une AE qui vont faire une grande différence).



Et pour la catégorie speedbike, c’est un choix des constructeurs et des consommateurs de le faire à partir de pièces VTT/ville. S’il y avait une réelle demande pour des speedbike dérivés de vélos de route, ou même fait avec des pièces spécifiques speedbike, il y aurait de l’offre pour la satisfaire. Car légalement, il n’y a quasiment aucune contrainte sur les pièces, si ce n’est que la puissance moteur doit être de 1000W maximum, et que le speedbike doit être équipé de tous les équipements de sécurité obligatoires (freins, feux, réflecteurs…) et d’un support de plaque d’immatriculation.


Le 13/06/2019 à 15h 21







RuMaRoCO a écrit :



Si c’est un VAE au delà de 25km/h c’est que votre force… donc a part à être un bon sportif vous ralentirez très rapidement je pense&nbsp; ?





L’assistance ne s’arrête pas soudainement à 25 km/h. La législation impose

que l’assistance diminue progressivement au fil de l’augmentation de la

vitesse.



Du coup, quand on approche des 25km/h, l’assistance est

déjà très faible. Et donc, celui qui atteint les 25 km/h, c’est qu’il a

les jambes pour y arriver, et il ne va donc pas soudain ralentir quand

les 25 km/h seront atteints (de toute façon s’il ralenti, il bénéficie

de nouveau de l’assistance…).


Le 13/06/2019 à 15h 17







liteo a écrit :



Une étude sur le profil des utilisateurs de trottinettes a été effectuée (http://transports.blog.lemonde.fr/2019/06/06/enquete-inedite-utilisateurs-trottinettes-electriques/) et : “comment auraient été effectués ces trajets en absence des trottinettes&nbsp;? Réponse&nbsp;: 47% à pied, 29% en transport en commun, 9% à vélo. Et seulement 8% en taxi ou en voiture avec ou sans chauffeur.”

&nbsp;Ceci étant dit, la vrai problématique est la place de la voiture auquel 50% de l’espace public urbain est dédié alors qu’elle ne fait transiter que 13% du trafic (https://www.lemonde.fr/les-decodeurs/article/2016/11/30/a-paris-la-moitie-de-l-espace-public-est-reservee-a-l-automobile_5040857_4355770.html).





Merci pour cette étude. Je ne la connaissait pas, mais elle confirme ce que je pensais et ce que je constate autour de moi.

Donc l’argument “ça va être remplacé par des voitures qui polluent” n’est bel et bien pas valable pour contester la réglementation des trottinettes.

Il faudra hélas bien plus d’efforts que le déploiement des trottinettes en free-floating pour réellement sortir du “tout-voiture”…





Idiogène a écrit :



Donc l’assistance se coupe automatiquement passé les 25km/h, c’est idiot je trouve. Quel intérêt d’avoir un truc aussi peu versatile ?

Tu pers tout l’intérêt d’un moteur qui finalement se destine seulement aux fénéants alors qu’un coup de pouce pour ceux qui roulent et savent rouler cela aurait été sympa. <img data-src=" />





L’intérêt du moteur dans un VAE, c’est pas d’aller vite. C’est de t’assister dans les phases les plus difficiles : les démarrages, les petites montées. Tout ça dans le but de réduire fortement l’effort lors de déplacements urbains. Car en ville, c’est bel et bien à cause des constantes variations de vitesse et des fréquents arrêts aux stops et aux feux rouges qu’on fait le plus d’efforts. Pas à cause des phases en régime de croisière, où la consommation d’énergie est plus faible.



Et c’est pour ça que le VAE est une exception parmi les véhicules motorisés, parce que le comportement de l’assistance fait que finalement, d’un point de vue vitesse et sécurité, c’est quasi la même chose qu’un simple vélo.



Après, pour ceux qui veulent un moteur pour pouvoir aller plus vite qu’avec un vélo classique, il y a les speedbikes, qui ont les mêmes limitations de vitesse que les cyclomoteurs, mais avec du coup les mêmes obligations (casque, gants, immatriculation, assurance).


Le 12/06/2019 à 23h 32







CowKiller a écrit :



Ces “merdes à supprimer” comme je viens de lire sont en attendant entre une dizaine et une centaine de fois plus économes en énergie sur le même déplacement qu’une voiture. Sans compter l’économie de bruit, d’odeur dégueulasse, et de risque pour la vie d’autrui. Ces gens là ont un problème de déconnexion à la réalité écologique actuelle je crois.





J’aimerai croire que les nombreuses trottinettes qui envahissent les villes remplacent effectivement des voitures. J’ai cherché des études montrant une baisse du trafic automobile avec l’arrivée de ces trottinettes. Je n’en ai pas trouvé. En attendant, je ne considérerai donc pas que la trottinette remplace la voiture.



&nbsp;Les offres de free floating sont d’ailleurs clairement orientées vers les déplacement très courts (tarification à la minute, qui fait vite grimper les prix si le trajet dure longtemps…), qui, dans les grandes villes, se font surtout à pied (prendre la voiture pour faire 1km, ça se fait dans les petites villes, pas dans les grandes villes où c’est galère pour stationner et où pour un déplacement de 1km tu vas faire d’abord 500m à pied pour rejoindre ta voiture puis 500m à pied pour aller de la place que tu auras trouvé jusqu’à ta destination…).



De toute façon, ceux qui persistaient à se déplacer en voiture pour des petites distances avant l’arrivée des trottinettes, alors qu’il y avait déjà plein d’alternatives (vélo, marche, TC), c’est à de rares exceptions près soit qu’ils n’avaient vraiment pas le choix (handicap, transport de grosses charges…), soit qu’ils ne voulaient pas renoncer à leur petit confort d’automobiliste isolé dans leur bulle d’acier. Ce n’est donc pas l’arrivée des trottinettes électriques qui va les faire changer d’avis…



Et quand je regarde parmi mes connaissances, ça confirme mon avis. La trottinette électrique à surtout remplacé le vélo et les TC pour ceux qui ont acheté leur trottinette, les TC et la marche pour ceux qui utilisent le free floating…


Le 06/06/2019 à 09h 10

Il y a transition, puisque bash restera disponible dans Catalina, c’est juste que ksh sera le shell par défaut.

Le 28/05/2019 à 10h 41







Cumbalero a écrit :



Pour une phrase à la con… Viens le dire à ma mère par exemple. Ou au 7% d’illétrés de ce pays qui seraient aussi les premières victimes du vote électronique.






 J'adore les mecs qui critiquent en lisant pas jusqu'au bout... J'ai bien précisé que ceux qui le demandent pourraient continuer à recevoir les papiers. Ou même l'inverse, que ça soit envoyé par défaut, mais qu'on puisse demander à ne pas le recevoir.      






Mais le fait est qu'avec le système actuel, il y a sans doute sur cette élection des milliards (oui oui, milliards) de feuilles A4 qui ont été fabriquées et imprimées pour être directement jetées à la poubelle... Plus de 4000 tonnes de papier...      

&nbsp;







Cumbalero a écrit :



Pour 2 fois plus de bazar, votons 2 fois à la même élection dont une fois juste pour le journal de 20h…






L'intérêt ne se limite pas à l'instantanéité des résultats pour le 20h. L'intérêt, c'est aussi de faciliter le dépouillement. Un petit ticket avec un numéro, c'est bien plus rapide à comptabiliser qu'un grand bulletin A4, qu'il faut déplier et vérifier (et heureusement, les dépouilleurs ne se font pas chier à vérifier strictement... parce que là théoriquement ils devraient vérifier tous les noms sur chaque bulletin, pour s'assurer que ce n'est pas un bulletin non officiel... je sais pas qui a eu cette idée à la con d'imposer la liste complète sur les bulletins dans une scrutin où il n'est pas autorisé à l'électeur de rayer des noms...).      






Ça permet aussi de ne pas imposer à des gens de passer leur dimanche soir à compter les bulletins (beaucoup de communes ont du mal à trouver du monde pour le faire !), le dépouillement peut tout a fait être reporté au lendemain, vu que son importance est réduite.      






En poussant l'idée un peu plus loin, un tel système permettrait même à terme de ne pas systématiquement tout compter. On compte x% des bureaux tirés au sort, et si sur ces x% le résultat est cohérent entre le comptage et les machines, on peut valider globalement le résultat des machines. Ou encore, avec des tickets portant un numéro d'identification, on vérifie x% des tickets sur tous les bureaux en comparant avec le listing tiré de la machine (mais c'est plus long que de vérifier x% des bureaux).      





Et à plus long terme, ça ouvre la porte à des systèmes de vote plus évolués, mais excessivement compliqués à mettre en place tant qu’on est sur du vote purement papier, parce que le risque d’erreur de comptabilisation lors du dépouillement est trop important. Par exemple des systèmes de vote où au lieu de voter uniquement pour un choix on disposerait de n points à répartir librement entre les différents choix.



&nbsp;      

Quand aux illettrés, ils ont de toute façon aussi du mal avec les bulletins papier actuels... À la limite, une machine à voter type TPE, où ils auraient juste à indiquer le numéro pour lequel ils votent pourrait même leur faciliter les choses hein... Ou une machine plus évoluée, où ils cliqueraient sur la photo du candidat ou le logo de son parti

Le 27/05/2019 à 09h 17

J’irai même plus loin que le bulletin unique : un mix entre vote électronique et papier.



Dans l’isoloir, une machine à voter électronique qui enregistre ton vote et imprime un bulletin avec ton choix, bulletin que tu glisses dans une enveloppe puis dans l’urne.



Ainsi, à 20h on a tout de suite les résultats, et le comptage des bulletins papier sert juste à valider le résultat enregistré électroniquement.



Et niveau papier, on n’a plus qu’un seul bulletin et une seule enveloppe par votant, alors qu’aujourd’hui on a des dizaines de bulletins par inscrit.



Par contre ça nécessite un investissement de départ. Si on part sur des petites machines genres TPE, avec une moyenne de 4 machines par bureau, ça représente un investissement de l’ordre de la 50aine de millions d’euros, à amortir ensuite sur plusieurs élections.





Mais la plus grosse économie de papier, ça serait surtout de ne plus envoyer toute la propagande à tout le monde. À l’heure d’Internet, ça n’a plus de sens. Il faudrait ne l’envoyer qu’à ceux qui en font explicitement la demande. Ou au moins ne plus l’envoyer à ceux qui demandent de ne pas la recevoir.

Le 15/05/2019 à 12h 17

C’est précisé au-dessus qu’ils prennent la moyenne sur 90 jours : “ vous devez avoir des flux créditeurs mensuels moyens sur 90 jours sur votre compte bancaire”.

Donc c’est normal que sur un trou d’un mois ils ne disent rien.



Cela dit, ces règles sont “nouvelles”, à l’époque où j’avais un compte chez eux, il y avait juste une condition de revenu à la souscription (mais sans obligation de domicilier les revenus chez eux) et l’obligation de faire au moins n transactions par trimestre (avec n suffisamment petit pour que ça soit vraiment pas une contrainte).

Le 09/05/2019 à 09h 38

C’est justement logique d’avoir une syntaxe différente de l’habituel %.



Parce que justement, le % serait interprété au moment de l’exécution de la commande doskey, donc il faudrait l’échapper, et il y aurait des risques de confusion ou d’oubli de l’échappement… Une syntaxe clairement différente limite le risque.

Le 03/05/2019 à 09h 12

Et sinon, le 1080p, c’est quand vous voulez…



Si je me souviens bien, à l’époque où ils l’ont sorti sous iOS, ils promettaient que ça arriverait sous Android sous quelques mois… C’était il y a deux ans.



C’est quand même dingue que ceux qui payent aient droit à une qualité inférieure à ceux qui piratent…

Le 24/04/2019 à 11h 52

Ça éliminerait déjà la fraude effectuée par les professionnels qui achètent et revendent des voitures d’occasion.

Le 11/04/2019 à 15h 28

Bah à l’échelle d’Internet et de la modification fréquente et rapide des conditions d’utilisations des grosses plateformes, c’est effectivement assez ancien…



Surtout qu’en plus entre temps il y a eu le RGPD, qui a obligé la plupart des plateformes à revoir très fortement leurs conditions.







Mais le pire là dedans, je trouve que c’est le nombre de clauses… 430 clauses abusives dans un contrat pour un service très grand public, ça veut surtout dire que le contrat est de base beaucoup trop complexe… Qui peut sincèrement prétendre, en rédigeant un contrat aussi complexe,

qu’il ne s’attend pas à ce que les utilisateurs l’acceptent sans rien

avoir lu ? Un contrat pour ce genre de service, ça devrait comporter tout au plus une vingtaine de clause.

Le 21/03/2019 à 18h 23


Zaxe a dit:


J’espère que pour ce projet Aurora, que les services marketing et commercial n’ont pas vendu du rêve.



Enayem a dit:


C’est fou cette manipulation des marchés, est ce qu’un acheteur sain d’esprit d’autant plus pour un si gros marché, peut se permettre d’acheter du papier glacé !!!


Clairement, sur ce genre de choses, c’est pas les services marketing qui vendent. Si le DOE a signé, c’est qu’il a eu la preuve que ça marche et que ça répond à son besoin avec le budget qu’il a.



Dans le domaine du HPC, les fabricants de machines (ici Cray) et les clients ont accès à des samples très en amont de la commercialisation. Parfois les calculateurs sont même mis en service avant que les puces soient officiellement sur le marché.