Je n’ai pas souvenir que la communication d’AMD ciblait énormément les joueurs pour la release des R7. Au contraire c’était bien plus souvent les power-user qui étaient ciblés via les bench. Et vu les résultat une fois sorti c’est bien eux qui ont intérêt à acheter du ryzen.
Sachant qu’en plus, les performances en jeu ne sont certes pas au niveau des I7/I5 hautement cadencé d’intel mais sont loin d’être mauvais dans l’absolus.
Du coup j’ai surtout l’impression que tu as été over-hypé plus qu’autre chose.
Oui et non, certes on peut faire varier la fréquence processeur et la tension qui lui est appliqué pour en faire varier la puissance consommé.
Sauf qu’un processeur n’est pas aussi simple, lors de sa conception, le placement des différents éléments du die, les répétiteurs de signaux, les caches, le process de gravure, etc… sont définit avec une certaine fréquence/efficience cible.
Par rapport à cette fréquence cible, si on monte un peu, on augmente rapidement la consommation car le processeur demandera une tension bien plus élevé pour que les signaux se déplacent assez vite. Si on descend on garde une certaine consommation “résiduelle” des éléments mis en place pour permettre le fonctionnement initial.
Du coup multiplier les coeurs en fonction des usages prend un sens avec l’objectif d’améliorer l’efficience de l’ensemble.
TL;DR: C’est comme une boite de vitesse, plus tu as de rapport différents mieux tu peux adapter ta conduite et ta consommation :)
Le
02/03/2017 à
11h
20
L’intérêt est d’avoir trois profiles de performance/w pour avoir au final le meilleurs rapport expérience utilisateur par watt.
La commutation n’est pas si coûteuse que ça dans un environnement où la majorités des tâches sont destinés à un humain. Une migration de 500µs n’est pas vraiment importante à cette échelle.
Mais qui auront une enveloppe thermique ou un potentiel d’OC permettant une monté en fréquence plus simple.
Ou tout simplement un rapport perf prix compétitif face aux i5/i7. Un R5 donnant 90% des perf d’un i5 mais placé dans les 150€ sera largement préférable. Les 100€ ainsi dégagé seront bien mieux investis dans une carte graphique plus haut de gamme par exemple.
Sachant que les perf CPU ne sont pas le facteur principal de performance en jeu, c’est la CG qui compte dans la très large majorité des cas…
Il ne faut pas non plus oublier l’arrivé des APU à peu près au même moment que les R5. Or avec une micro-architecture plus efficiente ça ouvre la voie à l’intégration d’une partie graphique plus puissante, ce qui permettrait d’avoir des pc de jeu milieu de gamme sans carte dédié, ce qui est déjà le cas sur le bas de gamme.
Encore une fois il faut voir le placement tarifaire par rapport au marché visé.
Le
02/03/2017 à
16h
57
C’est amusant de voir le nombre de personnes qui soulignent systématiquement que les ryzen sont moins bon en jeux par rapport à un i5/i7.
C’est normal . Ces processeurs ne sont pas cadencé au même niveau et malgré le fait que les jeux parallélisent mieux les calculs CPU c’est encore assez limité et très peu d’éditeurs cherchent à améliorer le parallélisme au delà de 4 coeurs.
D’ailleurs pour jouer il n’est pas conseillé de prendre un i7 mais un i5 au passage, le second étant souvent plus performant car le SMT dissipe pas mal de chaleur ce qui limite l’usage des fonctions “turbo” des processeurs intel.
Pour les pharmaciens je suppose que l’encadrement des prix par la sécu ne leur laisse une marge de manœuvre que faible, c’est d’ailleurs surement de ce fait que ceux-ci concentrent leurs effort de promotion sur la parapharmacie ou les médicaments sans ordonnance.
Pour les agences immobilières le fonctionnement des locations sont très encadré (rapport d’entré, de sortie, prix au m², commission de l’agence, etc…). Du coup si quasiment tout ce que représente ton produit est fixé par l’état tu ne peux pas proposer de différenciation. Celle-ci devant très certainement te coûter de l’argent que tu ne pourras pas récupérer du fait que tes prix ne sont pas modifiable.
Sinon pendant ce temps là si l’on dépasse les 250w de puissance sur un vélo électrique il faut un permis scooter, si l’assistance électrique ne se coupe pas au delà de 25km/h on passe également dans la catégorie scooter…
Ce serai bien d’harmoniser la législation sur les véhicules électrique (et la création d’une catégorie dédié tant qu’a faire parce que 250w/25kmh c’est ridicule) plutôt que de vouloir tout interdire.
Oula, gros warning à poser en gras de partout sur ces statistique et sur certains modèles de disques utilisé.
Backblaze n’est pas représentatif d’une utilisation normale de ces disques! Plusieurs points à prendre en compte:
-Les st4000dx000 ont été acheté lors de la pénurie de disques suite aux problèmes en asie du sud (plein d’usine de fabrication de disque sous l’eau). C’étaient des disques externes qui ont été démonté pour les placer dans les serveurs.
-Les premiers modèles des pods qu’ils avaient conçus n’était pas très efficace en ce qui concerne l’aténuation des vibrations, or certains disques ou modèle le supportent très mal. La plupart des surcoût dû aux disques serveur ou entreprise viens justement du fait qu’ils gèrent mieux les vibrations parasites venant d’autres disques. (double point d’attache pour l’axe de rotation des disques, système d’atténuation des vibrations, capteurs de vibrations et mise en sécurité plus sensible ect…
-Les disques en question n’ont également pas un nombre particulièrement important (189) ce qui statistiquement est moins précis in-fine. Il suffis de comparer avec un modèle proche comme le st4000dx000 qui n’as que 2.77% de panne pour 34700 disques.
Globalement l’initiative de backblaze de publier ses statistique de panne est intéressante et il y a des informations à en tirer, mais par contre dire que la marque X est pourris à cause d’un cas particulier dans celle-ci c’est faire fi du cas particulier que l’usage de backblaze représente.
Sauf que beaucoup d’application bureautique/Jeu sont très mal multi-threadé ou dur à multi-threader. Du coup la multiplication des cœurs n’est qu’un gain de performance secondaire et la performance mono-coeur reste le nerf de la guerre de la performance CPU.
Or sur ce point intel fait du quasi sur-place depuis presque 4 générations… (améliorations IPS faible ou inexistante, monté en fréquence de même voir qui régresse.)
C’est amusant de voir qu’il y a quand même des gens qui trouvent que les routes solaires sont une bonne idée malgré les simples chiffres qui font que cela est une absurdité.
En étant généreux:
C’est 5 à 10 fois moins efficace au m², 850kwh/an vs 100kwh espéré pour la route, et les 850kwh/an sont pessimiste.
C’est au moins 6 fois plus cher à installer, 1€/m² vs 6€/m² pour la route selon bouygue.
Rien que là on est sur un delta de 30 à 60 fois moins efficace pour les routes sans ajouter à cela d’autres problématiques comme l’usure de ces panneaux qui auront à supporter bien plus de contrainte qu’un panneau standard.
Je me pose un peu la même question que RaoulC, en quoi youtube-dl serai un outil facilitant la contrefaçon par rapport à un enregistreur audio/vidéo?
Bon en cherchant un peu effectivement youtube-dl est interdit car les vidéo youtube utilisent EME comme DRM, or dans ce cas la L335-2-1 s’applique bien.
Par contre vu que c’est un logiciel opensource bon courage pour le faire interdire :-/
Dans certains cas particulier tu peux saturer ton processeur via des données.
Mais dans la majorité tu seras contraint pas les latences des différentes mémoire plus que par leur débit. Bien que très rapide comparativement aux disques dur, un SSD reste “lent” en temps processeur.
Pour donner un ordre de grandeur la latence d’accès à la RAM est inférieur à 100ns, la latence d’accès à de la mémoire flash est de l’ordre de 10 à 100µs (100/1000x plus).
Après ça reste quand même super d’avoir des SSD de plus en plus performant en terme de débit et d’IOPS. Et le simple fait de passer de plus en plus sur des modèles nvme améliorent aussi les choses! (pour résumer le nvme est un protocole de communication qui “remplace” le SATA/SAS pour les mémoire rapide comme les SSD, le but étant de réduire les traitements nécessaires pour accéder aux données.)
Il faut faire le parallèle avec les fouilles préventives qui sont effectués sur les sites de constructions. Ces fouilles permettent par exemple de découvrir des sites datant de l’ère mérovingienne sur laquelle on a assez peu d’information.
Les informations sur la biodiversité des sites avant leur constructions permet de nourrir les études sur la préservation de lieux clés pour la biodiversité, ou d’argument pour l’extension de zones protégés.
On est encore très loin d’avoir des piles à combustible dans nos voitures. La fragilité du système empêche complètement son utilisation non-statique.
De plus même si l’on sais “fabriquer” de l’hydrogène, on ne sais pas le faire efficacement, les rendement actuels sont aux alentours de 50%, si on ajoute les pertes lié à la pile à combustible derrière on doit dépenser ~2,1kwh pour produire 1kwh via une pile à combustible.
Ce genre de système sera surement intéressant lorsque les énergies renouvelable seront plus largement disponible (et du coup on aura des pics de production à absorber) mais en attendant son utilisation est bien moins pratique que de simple batteries.
Tu peux développer ton propos? Parce que normalement c’est le contraire, ça permet aux dev d’avoir un environnement “iso-prod” sur leur machine.
Le
01/08/2016 à
07h
58
Une simplification assez facile à comprendre est de se dire que c’est comme de la virtualisation mais sans avoir à charger un système d’exploitation.
Le noyau du système hôte est partagé par les conteneurs qui s’exécutent.
Du coup tu as un peu le même principe qu’un .exe effectivement, ton application est “packagé” dans un conteneur docker qui contient tout ce qu’il lui faut en terme de librairie et dépendances.
D’après ce que j’ai compris de cet article-ci, l’ether est une crypto monnaie comme peut l’être le bitcoin, litecoin, dogecoin etc.
Or comme toutes les cryptomonnaies “standard” toutes les transactions sont écrite dans une blockchain qui est distributé à tout les participant du réseau.
C’est là qu’arrive DAO, qui est créé par une entreprise allemande Slock.it. The DAO est conçu comme une entreprise dématérialisé qui “vie” dans la blockchain de l’ether et fonctionne en publiant des smart-contract qui ne sont au final que des programmes informatiques stipulant les condition de complétion de contrats. Ces smart-contrat sont la base du fonctionnement de the DAO et sont inscrit dans la blockchain et par conséquent sont impossible à modifier.Malheureusement comme tout programme informatique il peut y avoir un bug, et une personne sur le réseau a profité de ce bug pour soutirer les quelques 50 millions de dollars d’équivalent d’ether.Or vu que le contrat est dans la blockchain, même buggué il est valide, l’utilisation du bug du contrat n’est donc pas répréhensible si on se fie au fonctionnement purement technique des smart-contrat.Sauf que 50M\( ça fait mal de les perdre. The DAO ayant été crowdfoundé avec des objectifs divers, ce manque dans les caisses impacte forcément ses objectifs. Des actions ont donc été entreprise pour trouver une solution.Et c'est là qu'interviens le hard-fork, le principe est de pousser les gens sur une nouvelle version de la block-chain incompatible avec la précédente. La nouvelle version corrigeant les 50M\) hacké à the DAO.Sauf que… Si on peut aussi facilement hard-forker une blockchain et la modifier, le principe même qui assure l’immutabilité des transactions est violé et, basiquement, les participant perdent confiance en la cryptocurrency car son échange n’est pas garanti. “If contracts held to be inviolable can effectively be overturned by a collective decision to run new software, what guarantee do financial institutions have that their transactions and funds are secure?”
Le retour d’expérience de backblaze est a prendre avec de très grosse pincettes.
La charge de travail des disques est très spécifique, ils ont un usage élevé au début lorsqu’ils se remplissent de données puis ont un rythme de croisière beaucoup plus calme. On ne peux donc pas vraiment juger de l’usure de leur disque par rapport à un disque de travail par exemple.
Ensuite ils ont des boitiers spécialement conçu pour palier les problèmes de vibration que peuvent avoir des disques grand public. Utiliser les mêmes disques dans une tour lambda peut s’avérer être une très mauvaise décision, beaucoup d’erreur de lecture peuvent survenir et la durée de vie des disques grandement diminuer.
Oui et non, pour des systèmes basé sur un fonctionnement horizontale (scale-down) et non verticale (scale-up) le fait d’avoir des machines qui tombent en panne n’est pas vraiment un problème dans que l’on dispose d’assez de ressources pour exécuter les applications ailleurs.
Exemple: un site web moderne va avoir une architecture redondé et habituellement basé sur des VM ou des conteneurs autre. Il va y avoir N serveur SQL pour les données, N serveurs applicatifs pour la logique, N serveur de cache, etc… Si une machine physique hébergeant la VM d’un serveur applicatif tombe, les autres serveurs exécutant les VM de serveurs applicatifs tournent toujours et permettent d’avoir le temps que la VM tombé soit redéployé sur un autre serveur physique.
Globalement il suffis d’avoir de la ressource ailleurs et les serveurs défaillants n’engendrent pas d’indisponibilité.
En gros il se sont rendu compte que les profils de compression à double passe et/ou taille fixe ne sont pas forcément les plus intelligent en terme de compression ?
Il faudrait peut-être leur donner un tuto sur l’utilisation de ffmpeg :)
Oui et non, ZFS effectue des checksum ce qui permet de détecter les corruptions silencieuses (notamment grâce à la fonction de scrub), mais pas de les corriger. Il faut avoir de la parité ou une duplication pour reconstruire la donnée quand elle est détecté comme corrompu.
Donc oui, il n’y a pas de raison que tu ne puisse pas utiliser un tel disque dans un pc “grand public”. L’inconvénient du SMR est que les blocs présent sur le disque pour une écriture sont beaucoup plus gros que sur un disque standard. On était à 512o avant, maintenant on a une norme à 4ko, les SMR écrivent des bloc de 64Mo. Donc pour modifier un seul fichier il faut écrire 64Mo de données (lecture, modification, écriture) ce qui prend du temps et donc dégrade les performances.
Sur l’histoire du raid 5/6/7/x oui il y a une probabilité de plus en plus forte à mesure que la taille des disques augmente que l’on tombe sur une erreur irrécupérable.
Le plus simple pour visualiser la chose est le raid 5, imaginons qu’un des disques soit mort que l’on souhaite reconstruire son raid. Lors de n’importe quelle lecture de donnée tout les disques ont une probabilité de faire une erreur irrecuperable, (1⁄10^14 habituellement). Or ici on reconstruit le raid, on ne dispose plus de parité pour vérifier les données, on va donc soit: détecter une erreur et on perd la donnée, soit ecrire une donnée et une parité fausse lors de la reconstruction.
Additionner à ça la probabilité qu’un disque tombe en panne pendant la reconstruction et les temps de reconstruction de plus en plus long et vous aurez compris que les raid deviennent, à parité égale, moins sûr avec l’augmentation de la taille des disques.
Pour un particulier ce n’est pas une grosse problématique, mais dans le monde pro, corrompre une donnée est impensable.
L’ajout de disques de parité en plus ne fait que déporter le problème à quand nous auront des disques plus gros.
Il est déconseillé de les brancher sur des multiprise du fait des autres appareils branché dessus et de la qualité douteuse de nombreuses multiprises. Là le but est juste de tester le débit max des deux blocs CPL en les branchant le plus près l’un de l’autre.
J’ai regardé un peu les commentaires et je trouve pas mal de réactions assez amusante vu que je bosse sur du linky.
Je vais pas chercher plus loin sur les “onde de la mort du CPL” c’est trop comique de voir ces choses là pour avoir une réaction constructive. :)
Le but premier du compteur connecté pour un acteur comme edf/erdf ce n’est pas de facturer plus, c’est de lisser la consommation.
Effectivement le compteur peut envoyer une information à vos équipement, ce signal existe déjà, c’est le passage en heure pleine/heure creuse qui lance notamment les ballons d’eau chaude électrique.
Avec ça EDF espère lisser suffisamment la consommation lors des pics de charge le soir pour utiliser moins les centre de production au gaz/diesel qui leur coûte bien plus cher qu’une centrale nucléaire en terme de prix/kwh.
Ensuite les risques sur les informations transmises par les compteurs? Elles ont une latence de souvent 24h, sont chiffré de bout en bout (recommandation de l’ANSSI). Et comme le dit l’article, vous n’êtes pas obligé de les transmettre.
Ensuite sur l’aspect domotique que peut permettre le compteur (ex: décaller le départ d’une machine, limiter la lumière, décaler le rechargement de certains appareil). il est prévu et doit normalement être direct entre le compteur et vos appareils via un petit module. Mais je doit avouer que j’ai assez peu d’info à ce sujet.
Globalement je trouve que le Linky est bien, mais est trop orienté dans l’intérêt primaire d’EDF, le rendre plus accessible aux particuliers et surtout pouvoir se baser dessus pour de “vrai smart-grid” basé sur des énergies renouvelable aurai été un plus.
Le
02/12/2015 à
13h
51
Je ne saurai trop te conseiller de faire des tests pour isoler le problème. Test les débits de tes deux bloc CPL dans différentes conditions. Par exemple déjà vérifie leur débit “max” en les branchant sur la même multiprise, puis tu test sur des prises différentes.
Diagnostiquer les problèmes d’un réseau CPL est assez compliqué, c’est pour ça que je ne le conseil jamais ou presque.
Le
02/12/2015 à
11h
53
Aucun rapport entre ton CPL et le CPL utilisé par le compteur linky. Les deux ne sont pas tout à fait sur le même réseau (normalement tu as un différentiel entre les deux qui le filtre) ni sur les même fréquences.
Si tu as des problèmes avec ton CPL regarde si tu ne passe pas par ton différentiel entre tes points d’accès, et surtout vérifie que tu n’ai pas des bloc d’alimentation bas de gamme qui ont tendance à introduire énormément de perturbation harmonique sur la porteuse.
Et pour les rad de carte graphique tu fais comment actuellement?
Les colles à radiateurs fonctionnent très bien ce genre d’usage, les vieilles carte graphique avait souvent des petits radiateurs sur les étages d’alimentation et étaient fixé avec de la colle à faible résistance thermique.
Un petit radiateur comme ceux pour les raspberry pi ne coûte que quelques euro et est largement suffisant pour dissiper les quelques W de trop généré par le contrôleur.
Effectivement, si on utilise ZFS il faut utiliser de la mémoire ECC. Sinon on risque de perdre toutes ses données!
(pour le fonctionnement: ZFS fait un checksum de toutes les données présente sur le disque pour des raisons de robustesse et pour éviter les cocrumptions silencieuse des données. Ce checksum est vérifié sen mémoire lorsqu’une donnée est lue, si la mémoire vive a une erreur sur un bit de donnée, le checksum change et ZFS va “corriger” l’erreur en écrivant les données corrompues sur le disque. Si on fait un scrubs d’un volume entier, toutes les données peuvent passer dans cette espace de mémoire vive corrompue et ainsi corrompre les données de tout le disque en plus de corrompre l’architecture du système de fichier.)
Autant sur les interfaces analogiques il est encore logique d’accorder de l’importance à la qualité du câble, autant sur une interface numérique (tant que le câble ne fait pas 15m) il faut y aller pour interférer suffisamment entre le niveau “1” et le niveau “0” du signal.
A quand des câbles Rj-45 plaqués or? " />
En fait on est loin du temps des signaux “carré” avec un traitement du signal simple sur les débit dépassant le Gb.
Bon par contre je suis daccord que la majorité des câbles dépassant les quelques euros le mètre sont poussé par des idiophile nourris au marketing bullshit.
En fait non au contraire, les voitures autonomes sauront basiquement bien mieux se comporter sur les routes à visibilité réduite qu’un conducteurs lambda. Tout simplement parce que la voiture connais sa distance de freinage et sa distance de visibilité.
Résultat? Un chemin avec faible visibilité poussera la voiture à rouler plus lentement mais roulera quand même, et elle sera plus sûre que le kéké du coin qui roule à 90km/h sur une petite route sans visibilité.
J’avais kickstarté le projet en prenant deux clés… C’est dommage, le projet était prometteur et aurai pu permettre de lancer d’autre projet embeded sous firefox OS.
Ce n’est pas parce qu’une association a des employésqu’elle est à but lucratif. Ce n’est pas non plus parce qu’elle vend des bien et réalise des bénéfices qu’elle est à but lucratif!
Et sinon sur le fait qu’ils ont 5 salariés (4,5 temps plein), il faut savoir qu’ils bossent sur de nombreux sujets comme tu peux le voir sur leur site, et que le lobbying ça prend du temps. Beaucoup de temps.
Ici le lien d’une “petite” vidéo (1h30) sur les sujets traités par LQDN cette année
Et sinon effectivement le propos de Philippe Aigrain était mal orienté, voir insultant. Mais le fond est là, LQDN est réellement utile sur des problématiques dont vous devriez (je suppose) être sensible si vous lisez nextinpact:
-Neutralité du net
-Vie privée
-Réforme du droit d’auteur
-etc…
Alors pourquoi ne pas regarder la réalité des faits et à minima relayer auprès de ses amis la page de soutiens à LQDN?
Pour le coup CPCHW a fait quelques test sur les cartouches d’impression non-officielles récemment.
Ce qu’il en ressort est que les cartouches “officielles” sont rarement (jamais?) un bon choix, tant par leur rapport qualité/prix que par la qualité d’impression intrinsèque. Seules les cartouches vraiment premier prix souffrent de problème de rendu d’impression et de longévités.
Le form-factor en barrette de ram est intéressant pour la densité de calcul. Imaginez des rack 1U de centaines de ces cartes. Un nombre de cœurs énorme. Et pourquoi pas des soc ARM plus puissant!
Ça donnerai des serveurs avec plusieurs centaines de cœurs de calcul avec des centaines de Go de ram. Pour du big data c’est excellent!
Reste à travailler sur l’interconnexion des modules, d’où la board de développement à 200$
93 commentaires
AMD Ryzen : « il n’y a aucun problème avec le scheduler de Windows 10 »
14/03/2017
Le 14/03/2017 à 18h 49
Je n’ai pas souvenir que la communication d’AMD ciblait énormément les joueurs pour la release des R7. Au contraire c’était bien plus souvent les power-user qui étaient ciblés via les bench. Et vu les résultat une fois sorti c’est bien eux qui ont intérêt à acheter du ryzen.
Sachant qu’en plus, les performances en jeu ne sont certes pas au niveau des I7/I5 hautement cadencé d’intel mais sont loin d’être mauvais dans l’absolus.
Du coup j’ai surtout l’impression que tu as été over-hypé plus qu’autre chose.
MediaTek annonce son SoC Helio X30 avec 10 cœurs en 10 nm
02/03/2017
Le 02/03/2017 à 18h 02
Oui et non, certes on peut faire varier la fréquence processeur et la tension qui lui est appliqué pour en faire varier la puissance consommé.
Sauf qu’un processeur n’est pas aussi simple, lors de sa conception, le placement des différents éléments du die, les répétiteurs de signaux, les caches, le process de gravure, etc… sont définit avec une certaine fréquence/efficience cible.
Par rapport à cette fréquence cible, si on monte un peu, on augmente rapidement la consommation car le processeur demandera une tension bien plus élevé pour que les signaux se déplacent assez vite. Si on descend on garde une certaine consommation “résiduelle” des éléments mis en place pour permettre le fonctionnement initial.
Du coup multiplier les coeurs en fonction des usages prend un sens avec l’objectif d’améliorer l’efficience de l’ensemble.
TL;DR: C’est comme une boite de vitesse, plus tu as de rapport différents mieux tu peux adapter ta conduite et ta consommation :)
Le 02/03/2017 à 11h 20
L’intérêt est d’avoir trois profiles de performance/w pour avoir au final le meilleurs rapport expérience utilisateur par watt.
La commutation n’est pas si coûteuse que ça dans un environnement où la majorités des tâches sont destinés à un humain. Une migration de 500µs n’est pas vraiment importante à cette échelle.
AMD Ryzen 7 sur socket AM4 : notre premier bilan, à lire avant de craquer (ou pas)
02/03/2017
Le 02/03/2017 à 17h 50
Mais qui auront une enveloppe thermique ou un potentiel d’OC permettant une monté en fréquence plus simple.
Ou tout simplement un rapport perf prix compétitif face aux i5/i7. Un R5 donnant 90% des perf d’un i5 mais placé dans les 150€ sera largement préférable. Les 100€ ainsi dégagé seront bien mieux investis dans une carte graphique plus haut de gamme par exemple.
Sachant que les perf CPU ne sont pas le facteur principal de performance en jeu, c’est la CG qui compte dans la très large majorité des cas…
Il ne faut pas non plus oublier l’arrivé des APU à peu près au même moment que les R5. Or avec une micro-architecture plus efficiente ça ouvre la voie à l’intégration d’une partie graphique plus puissante, ce qui permettrait d’avoir des pc de jeu milieu de gamme sans carte dédié, ce qui est déjà le cas sur le bas de gamme.
Encore une fois il faut voir le placement tarifaire par rapport au marché visé.
Le 02/03/2017 à 16h 57
C’est amusant de voir le nombre de personnes qui soulignent systématiquement que les ryzen sont moins bon en jeux par rapport à un i5/i7.
C’est normal . Ces processeurs ne sont pas cadencé au même niveau et malgré le fait que les jeux parallélisent mieux les calculs CPU c’est encore assez limité et très peu d’éditeurs cherchent à améliorer le parallélisme au delà de 4 coeurs.
D’ailleurs pour jouer il n’est pas conseillé de prendre un i7 mais un i5 au passage, le second étant souvent plus performant car le SMT dissipe pas mal de chaleur ce qui limite l’usage des fonctions “turbo” des processeurs intel.
TL;DR: Si vous souhaitez jouer, attendez les R5.
Amazon S3 : des sites et objets connectés inaccessibles cette nuit à cause d’une panne
01/03/2017
Le 01/03/2017 à 13h 49
Les aléas du minitel 2.0
Télécoms : la FCC annule des avancées récentes et adoube le « zero rating »
08/02/2017
Le 09/02/2017 à 09h 57
Pour les pharmaciens je suppose que l’encadrement des prix par la sécu ne leur laisse une marge de manœuvre que faible, c’est d’ailleurs surement de ce fait que ceux-ci concentrent leurs effort de promotion sur la parapharmacie ou les médicaments sans ordonnance.
Pour les agences immobilières le fonctionnement des locations sont très encadré (rapport d’entré, de sortie, prix au m², commission de l’agence, etc…). Du coup si quasiment tout ce que représente ton produit est fixé par l’état tu ne peux pas proposer de différenciation. Celle-ci devant très certainement te coûter de l’argent que tu ne pourras pas récupérer du fait que tes prix ne sont pas modifiable.
Un député veut restreindre l’usage des hoverboards et gyropodes sur les trottoirs
01/02/2017
Le 01/02/2017 à 14h 27
Sinon pendant ce temps là si l’on dépasse les 250w de puissance sur un vélo électrique il faut un permis scooter, si l’assistance électrique ne se coupe pas au delà de 25km/h on passe également dans la catégorie scooter…
Ce serai bien d’harmoniser la législation sur les véhicules électrique (et la création d’une catégorie dédié tant qu’a faire parce que 250w/25kmh c’est ridicule) plutôt que de vouloir tout interdire.
Backblaze fait le point sur les pannes de plus de 70 000 disques durs
01/02/2017
Le 01/02/2017 à 12h 18
Oula, gros warning à poser en gras de partout sur ces statistique et sur certains modèles de disques utilisé.
Backblaze n’est pas représentatif d’une utilisation normale de ces disques! Plusieurs points à prendre en compte:
-Les st4000dx000 ont été acheté lors de la pénurie de disques suite aux problèmes en asie du sud (plein d’usine de fabrication de disque sous l’eau). C’étaient des disques externes qui ont été démonté pour les placer dans les serveurs.
-Les premiers modèles des pods qu’ils avaient conçus n’était pas très efficace en ce qui concerne l’aténuation des vibrations, or certains disques ou modèle le supportent très mal. La plupart des surcoût dû aux disques serveur ou entreprise viens justement du fait qu’ils gèrent mieux les vibrations parasites venant d’autres disques. (double point d’attache pour l’axe de rotation des disques, système d’atténuation des vibrations, capteurs de vibrations et mise en sécurité plus sensible ect…
-Les disques en question n’ont également pas un nombre particulièrement important (189) ce qui statistiquement est moins précis in-fine. Il suffis de comparer avec un modèle proche comme le st4000dx000 qui n’as que 2.77% de panne pour 34700 disques.
Globalement l’initiative de backblaze de publier ses statistique de panne est intéressante et il y a des informations à en tirer, mais par contre dire que la marque X est pourris à cause d’un cas particulier dans celle-ci c’est faire fi du cas particulier que l’usage de backblaze représente.
AMD dévoile de premières cartes mères AM4, LDLC partenaire du lancement de Ryzen
05/01/2017
Le 05/01/2017 à 10h 34
Sauf que beaucoup d’application bureautique/Jeu sont très mal multi-threadé ou dur à multi-threader. Du coup la multiplication des cœurs n’est qu’un gain de performance secondaire et la performance mono-coeur reste le nerf de la guerre de la performance CPU.
Or sur ce point intel fait du quasi sur-place depuis presque 4 générations… (améliorations IPS faible ou inexistante, monté en fréquence de même voir qui régresse.)
« La première route solaire du monde » inaugurée en France, le début d’une nouvelle ère ?
24/12/2016
Le 27/12/2016 à 16h 38
C’est amusant de voir qu’il y a quand même des gens qui trouvent que les routes solaires sont une bonne idée malgré les simples chiffres qui font que cela est une absurdité.
En étant généreux:
C’est 5 à 10 fois moins efficace au m², 850kwh/an vs 100kwh espéré pour la route, et les 850kwh/an sont pessimiste.
C’est au moins 6 fois plus cher à installer, 1€/m² vs 6€/m² pour la route selon bouygue.
Rien que là on est sur un delta de 30 à 60 fois moins efficace pour les routes sans ajouter à cela d’autres problématiques comme l’usure de ces panneaux qui auront à supporter bien plus de contrainte qu’un panneau standard.
Les routes solaires sont une HERESIE.
Les États-Unis actualisent leur « liste noire » des sites pirates, le stream-ripping dans le viseur
23/12/2016
Le 27/12/2016 à 14h 26
Je me pose un peu la même question que RaoulC, en quoi youtube-dl serai un outil facilitant la contrefaçon par rapport à un enregistreur audio/vidéo?
Bon en cherchant un peu effectivement youtube-dl est interdit car les vidéo youtube utilisent EME comme DRM, or dans ce cas la L335-2-1 s’applique bien.
Par contre vu que c’est un logiciel opensource bon courage pour le faire interdire :-/
HGST annonce des disques durs de 12 et 14 To, des SSD de 7,68 To à 6,1 Go/s
07/12/2016
Le 07/12/2016 à 16h 59
Oui et non.
Dans certains cas particulier tu peux saturer ton processeur via des données.
Mais dans la majorité tu seras contraint pas les latences des différentes mémoire plus que par leur débit. Bien que très rapide comparativement aux disques dur, un SSD reste “lent” en temps processeur.
Pour donner un ordre de grandeur la latence d’accès à la RAM est inférieur à 100ns, la latence d’accès à de la mémoire flash est de l’ordre de 10 à 100µs (100/1000x plus).
http://stackoverflow.com/a/27803969
Après ça reste quand même super d’avoir des SSD de plus en plus performant en terme de débit et d’IOPS. Et le simple fait de passer de plus en plus sur des modèles nvme améliorent aussi les choses! (pour résumer le nvme est un protocole de communication qui “remplace” le SATA/SAS pour les mémoire rapide comme les SSD, le but étant de réduire les traitements nécessaires pour accéder aux données.)
 http://www.anandtech.com/show/7843/testing-sata-express-with-asus/4
Piratage : GKS.gs condamné à 3 millions d’euros, la justice sauve l’amendement Vivendi
25/10/2016
Le 25/10/2016 à 15h 02
Hum… un site est un logiciel, sauf si tu parle d’un site statique en pur html/css sans JS ou backend, où là ce serai plutôt apparenté à un fichier.
Au Sénat, un rapport envisage une durée de garantie légale de 4 ans pour les mobiles
30/09/2016
Le 30/09/2016 à 09h 04
Les maîtres d’ouvrage désormais contraints de faire remonter leurs « données de biodiversité »
10/08/2016
Le 10/08/2016 à 15h 23
Il faut faire le parallèle avec les fouilles préventives qui sont effectués sur les sites de constructions. Ces fouilles permettent par exemple de découvrir des sites datant de l’ère mérovingienne sur laquelle on a assez peu d’information.
Les informations sur la biodiversité des sites avant leur constructions permet de nourrir les études sur la préservation de lieux clés pour la biodiversité, ou d’argument pour l’extension de zones protégés.
Un député souhaite une étude sur l’électro-hypersensibilité
03/08/2016
Le 03/08/2016 à 09h 28
Les électrosensible ce sont les même qui se soignent à homéopathie, non?
Tesla propose 2,6 milliards de dollars pour racheter SolarCity, qui a 45 jours pour trouver mieux
01/08/2016
Le 02/08/2016 à 07h 34
On est encore très loin d’avoir des piles à combustible dans nos voitures. La fragilité du système empêche complètement son utilisation non-statique.
De plus même si l’on sais “fabriquer” de l’hydrogène, on ne sais pas le faire efficacement, les rendement actuels sont aux alentours de 50%, si on ajoute les pertes lié à la pile à combustible derrière on doit dépenser ~2,1kwh pour produire 1kwh via une pile à combustible.
Ce genre de système sera surement intéressant lorsque les énergies renouvelable seront plus largement disponible (et du coup on aura des pics de production à absorber) mais en attendant son utilisation est bien moins pratique que de simple batteries.
(source wikipedia + veolia)
Docker 1.12 : orchestration intégrée, clients natifs pour OS X et Windows
01/08/2016
Le 01/08/2016 à 08h 01
Tu peux développer ton propos? Parce que normalement c’est le contraire, ça permet aux dev d’avoir un environnement “iso-prod” sur leur machine.
Le 01/08/2016 à 07h 58
Une simplification assez facile à comprendre est de se dire que c’est comme de la virtualisation mais sans avoir à charger un système d’exploitation.
Le noyau du système hôte est partagé par les conteneurs qui s’exécutent.
Du coup tu as un peu le même principe qu’un .exe effectivement, ton application est “packagé” dans un conteneur docker qui contient tout ce qu’il lui faut en terme de librairie et dépendances.
Ethereum : un « hard-fork » controversé pour oublier The DAO
20/07/2016
Le 20/07/2016 à 16h 12
D’après ce que j’ai compris de cet article-ci, l’ether est une crypto monnaie comme peut l’être le bitcoin, litecoin, dogecoin etc.
Or comme toutes les cryptomonnaies “standard” toutes les transactions sont écrite dans une blockchain qui est distributé à tout les participant du réseau.
C’est là qu’arrive DAO, qui est créé par une entreprise allemande Slock.it. The DAO est conçu comme une entreprise dématérialisé qui “vie” dans la blockchain de l’ether et fonctionne en publiant des smart-contract qui ne sont au final que des programmes informatiques stipulant les condition de complétion de contrats. Ces smart-contrat sont la base du fonctionnement de the DAO et sont inscrit dans la blockchain et par conséquent sont impossible à modifier.Malheureusement comme tout programme informatique il peut y avoir un bug, et une personne sur le réseau a profité de ce bug pour soutirer les quelques 50 millions de dollars d’équivalent d’ether.Or vu que le contrat est dans la blockchain, même buggué il est valide, l’utilisation du bug du contrat n’est donc pas répréhensible si on se fie au fonctionnement purement technique des smart-contrat.Sauf que 50M\( ça fait mal de les perdre. The DAO ayant été crowdfoundé avec des objectifs divers, ce manque dans les caisses impacte forcément ses objectifs. Des actions ont donc été entreprise pour trouver une solution.Et c'est là qu'interviens le hard-fork, le principe est de pousser les gens sur une nouvelle version de la block-chain incompatible avec la précédente. La nouvelle version corrigeant les 50M\) hacké à the DAO.Sauf que… Si on peut aussi facilement hard-forker une blockchain et la modifier, le principe même qui assure l’immutabilité des transactions est violé et, basiquement, les participant perdent confiance en la cryptocurrency car son échange n’est pas garanti. “If contracts held to be inviolable can effectively be overturned by a collective decision to run new software, what guarantee do financial institutions have that their transactions and funds are secure?”
Seagate annonce trois disques durs de 10 To, deux sont déjà en cours d’expédition
20/07/2016
Le 20/07/2016 à 11h 20
Le retour d’expérience de backblaze est a prendre avec de très grosse pincettes.
La charge de travail des disques est très spécifique, ils ont un usage élevé au début lorsqu’ils se remplissent de données puis ont un rythme de croisière beaucoup plus calme. On ne peux donc pas vraiment juger de l’usure de leur disque par rapport à un disque de travail par exemple.
Ensuite ils ont des boitiers spécialement conçu pour palier les problèmes de vibration que peuvent avoir des disques grand public. Utiliser les mêmes disques dans une tour lambda peut s’avérer être une très mauvaise décision, beaucoup d’erreur de lecture peuvent survenir et la durée de vie des disques grandement diminuer.
Sources:http://www.tweaktown.com/articles/6028/dispelling-backblaze-s-hdd-reliability-my…
(tl;dr:)http://www.zdnet.com/article/trust-backblazes-drive-reliability-data/
Microsoft présente Natick, son projet de centre de données sous-marin
01/02/2016
Le 01/02/2016 à 16h 08
Oui et non, pour des systèmes basé sur un fonctionnement horizontale (scale-down) et non verticale (scale-up) le fait d’avoir des machines qui tombent en panne n’est pas vraiment un problème dans que l’on dispose d’assez de ressources pour exécuter les applications ailleurs.
Exemple: un site web moderne va avoir une architecture redondé et habituellement basé sur des VM ou des conteneurs autre. Il va y avoir N serveur SQL pour les données, N serveurs applicatifs pour la logique, N serveur de cache, etc… Si une machine physique hébergeant la VM d’un serveur applicatif tombe, les autres serveurs exécutant les VM de serveurs applicatifs tournent toujours et permettent d’avoir le temps que la VM tombé soit redéployé sur un autre serveur physique.
Globalement il suffis d’avoir de la ressource ailleurs et les serveurs défaillants n’engendrent pas d’indisponibilité.
Les précommandes pour l’Oculus Rift ouvriront demain soir
05/01/2016
Le 06/01/2016 à 16h 20
Idem…
Netflix : débits moyens, meilleure compression et nouvelle application Windows 10
17/12/2015
Le 17/12/2015 à 10h 20
En gros il se sont rendu compte que les profils de compression à double passe et/ou taille fixe ne sont pas forcément les plus intelligent en terme de compression ?
Il faudrait peut-être leur donner un tuto sur l’utilisation de ffmpeg :)
HGST annonce les Ultrastar He10, des disques durs de 8 et 10 To
02/12/2015
Le 03/12/2015 à 11h 32
Oui et non, ZFS effectue des checksum ce qui permet de détecter les corruptions silencieuses (notamment grâce à la fonction de scrub), mais pas de les corriger. Il faut avoir de la parité ou une duplication pour reconstruire la donnée quand elle est détecté comme corrompu.
Le 02/12/2015 à 16h 37
Pour le coup le SMR, ça dépend des disques mais normalement ça ne pose pas de problème.
Donc oui, il n’y a pas de raison que tu ne puisse pas utiliser un tel disque dans un pc “grand public”. L’inconvénient du SMR est que les blocs présent sur le disque pour une écriture sont beaucoup plus gros que sur un disque standard. On était à 512o avant, maintenant on a une norme à 4ko, les SMR écrivent des bloc de 64Mo. Donc pour modifier un seul fichier il faut écrire 64Mo de données (lecture, modification, écriture) ce qui prend du temps et donc dégrade les performances.
Sur l’histoire du raid 5/6/7/x oui il y a une probabilité de plus en plus forte à mesure que la taille des disques augmente que l’on tombe sur une erreur irrécupérable.
Le plus simple pour visualiser la chose est le raid 5, imaginons qu’un des disques soit mort que l’on souhaite reconstruire son raid. Lors de n’importe quelle lecture de donnée tout les disques ont une probabilité de faire une erreur irrecuperable, (1⁄10^14 habituellement). Or ici on reconstruit le raid, on ne dispose plus de parité pour vérifier les données, on va donc soit: détecter une erreur et on perd la donnée, soit ecrire une donnée et une parité fausse lors de la reconstruction.
Additionner à ça la probabilité qu’un disque tombe en panne pendant la reconstruction et les temps de reconstruction de plus en plus long et vous aurez compris que les raid deviennent, à parité égale, moins sûr avec l’augmentation de la taille des disques.
Pour un particulier ce n’est pas une grosse problématique, mais dans le monde pro, corrompre une donnée est impensable.
L’ajout de disques de parité en plus ne fait que déporter le problème à quand nous auront des disques plus gros.
source:http://www.zdnet.com/article/why-raid-6-stops-working-in-2019/
La CNIL donne son feu vert au déploiement du compteur Linky
01/12/2015
Le 03/12/2015 à 10h 31
Il est déconseillé de les brancher sur des multiprise du fait des autres appareils branché dessus et de la qualité douteuse de nombreuses multiprises. Là le but est juste de tester le débit max des deux blocs CPL en les branchant le plus près l’un de l’autre.
Le 02/12/2015 à 16h 02
Après quelques recherche je suis tombé là dessus:http://www.generation-nt.com/reponses/limite-des-reseaux-cpl-entraide-250644.htm…
“Pour en revenir aux interrupteurs différentiels, effectivement ils font
obstacle aux courants CPL (haute fréquence), puisque constitués de 2
selfs-induction qui font écran aux courants HF (Z = 2x Pi x N x L)”
Le 02/12/2015 à 14h 07
Non, mais ça n’aime pas du tout:
https://lafibre.info/tutoriels/cpl-debits-theoriques-et-debits-pratiques-conseil…
Le 02/12/2015 à 14h 05
J’ai regardé un peu les commentaires et je trouve pas mal de réactions assez amusante vu que je bosse sur du linky.
Je vais pas chercher plus loin sur les “onde de la mort du CPL” c’est trop comique de voir ces choses là pour avoir une réaction constructive. :)
Le but premier du compteur connecté pour un acteur comme edf/erdf ce n’est pas de facturer plus, c’est de lisser la consommation.
Effectivement le compteur peut envoyer une information à vos équipement, ce signal existe déjà, c’est le passage en heure pleine/heure creuse qui lance notamment les ballons d’eau chaude électrique.
Avec ça EDF espère lisser suffisamment la consommation lors des pics de charge le soir pour utiliser moins les centre de production au gaz/diesel qui leur coûte bien plus cher qu’une centrale nucléaire en terme de prix/kwh.
Ensuite les risques sur les informations transmises par les compteurs? Elles ont une latence de souvent 24h, sont chiffré de bout en bout (recommandation de l’ANSSI). Et comme le dit l’article, vous n’êtes pas obligé de les transmettre.
Ensuite sur l’aspect domotique que peut permettre le compteur (ex: décaller le départ d’une machine, limiter la lumière, décaler le rechargement de certains appareil). il est prévu et doit normalement être direct entre le compteur et vos appareils via un petit module. Mais je doit avouer que j’ai assez peu d’info à ce sujet.
La ville de Lyon dispose d’un site sur les expérimentations à ce sujet là.http://www.smart-electric-lyon.fr/
Globalement je trouve que le Linky est bien, mais est trop orienté dans l’intérêt primaire d’EDF, le rendre plus accessible aux particuliers et surtout pouvoir se baser dessus pour de “vrai smart-grid” basé sur des énergies renouvelable aurai été un plus.
Le 02/12/2015 à 13h 51
Je ne saurai trop te conseiller de faire des tests pour isoler le problème. Test les débits de tes deux bloc CPL dans différentes conditions. Par exemple déjà vérifie leur débit “max” en les branchant sur la même multiprise, puis tu test sur des prises différentes.
Diagnostiquer les problèmes d’un réseau CPL est assez compliqué, c’est pour ça que je ne le conseil jamais ou presque.
Le 02/12/2015 à 11h 53
Aucun rapport entre ton CPL et le CPL utilisé par le compteur linky. Les deux ne sont pas tout à fait sur le même réseau (normalement tu as un différentiel entre les deux qui le filtre) ni sur les même fréquences.
Si tu as des problèmes avec ton CPL regarde si tu ne passe pas par ton différentiel entre tes points d’accès, et surtout vérifie que tu n’ai pas des bloc d’alimentation bas de gamme qui ont tendance à introduire énormément de perturbation harmonique sur la porteuse.
Revue de presse : le SSD 950 Pro M.2 et NVMe de Samsung tient-il ses promesses ?
23/10/2015
Le 23/10/2015 à 14h 35
FreeNAS 10 : une première alpha qui annonce de gros changements
12/10/2015
Le 12/10/2015 à 12h 55
Effectivement, si on utilise ZFS il faut utiliser de la mémoire ECC. Sinon on risque de perdre toutes ses données!
(pour le fonctionnement: ZFS fait un checksum de toutes les données présente sur le disque pour des raisons de robustesse et pour éviter les cocrumptions silencieuse des données. Ce checksum est vérifié sen mémoire lorsqu’une donnée est lue, si la mémoire vive a une erreur sur un bit de donnée, le checksum change et ZFS va “corriger” l’erreur en écrivant les données corrompues sur le disque. Si on fait un scrubs d’un volume entier, toutes les données peuvent passer dans cette espace de mémoire vive corrompue et ainsi corrompre les données de tout le disque en plus de corrompre l’architecture du système de fichier.)
HDMI : une certification « Premium High Speed » pour les câbles
07/10/2015
Le 07/10/2015 à 14h 14
Les expérimentations de voitures autonomes bientôt autorisées sur les routes françaises
19/08/2015
Le 19/08/2015 à 21h 58
En fait non au contraire, les voitures autonomes sauront basiquement bien mieux se comporter sur les routes à visibilité réduite qu’un conducteurs lambda. Tout simplement parce que la voiture connais sa distance de freinage et sa distance de visibilité.
Résultat? Un chemin avec faible visibilité poussera la voiture à rouler plus lentement mais roulera quand même, et elle sera plus sûre que le kéké du coin qui roule à 90km/h sur une petite route sans visibilité.
Matchstick : clap de fin et remboursements pour la clé HDMI sous Firefox OS
04/08/2015
Le 04/08/2015 à 07h 10
J’avais kickstarté le projet en prenant deux clés… C’est dommage, le projet était prometteur et aurai pu permettre de lancer d’autre projet embeded sous firefox OS.
Facebook Messenger veut exploiter les applications mobiles et devenir un outil de service client
26/03/2015
Le 26/03/2015 à 09h 22
Je test un peu le logiciel, c’est sympa. Merci du tuyau!
[MàJ] La Quadrature du Net ne disparaîtra pas en 2015
22/12/2014
Le 19/12/2014 à 14h 46
Ce n’est pas parce qu’une association a des employésqu’elle est à but lucratif. Ce n’est pas non plus parce qu’elle vend des bien et réalise des bénéfices qu’elle est à but lucratif!
Et sinon sur le fait qu’ils ont 5 salariés (4,5 temps plein), il faut savoir qu’ils bossent sur de nombreux sujets comme tu peux le voir sur leur site, et que le lobbying ça prend du temps. Beaucoup de temps.
Ici le lien d’une “petite” vidéo (1h30) sur les sujets traités par LQDN cette année
Et sinon effectivement le propos de Philippe Aigrain était mal orienté, voir insultant. Mais le fond est là, LQDN est réellement utile sur des problématiques dont vous devriez (je suppose) être sensible si vous lisez nextinpact:
-Neutralité du net
-Vie privée
-Réforme du droit d’auteur
-etc…
Alors pourquoi ne pas regarder la réalité des faits et à minima relayer auprès de ses amis la page de soutiens à LQDN?
Les marchés publics sur les cartouches de marque font parfois mauvaise impression
24/11/2014
Le 24/11/2014 à 10h 35
Pour le coup CPCHW a fait quelques test sur les cartouches d’impression non-officielles récemment.
Ce qu’il en ressort est que les cartouches “officielles” sont rarement (jamais?) un bon choix, tant par leur rapport qualité/prix que par la qualité d’impression intrinsèque. Seules les cartouches vraiment premier prix souffrent de problème de rendu d’impression et de longévités.
Owncloud 7 bêta : cap sur les terminaux mobiles et le partage de fichiers
01/07/2014
Le 01/07/2014 à 08h 37
Le nouveau Raspberry Pi Compute module est disponible pour… 200 dollars
23/06/2014
Le 23/06/2014 à 14h 45
Le form-factor en barrette de ram est intéressant pour la densité de calcul. Imaginez des rack 1U de centaines de ces cartes. Un nombre de cœurs énorme. Et pourquoi pas des soc ARM plus puissant!
Ça donnerai des serveurs avec plusieurs centaines de cœurs de calcul avec des centaines de Go de ram. Pour du big data c’est excellent!
Reste à travailler sur l’interconnexion des modules, d’où la board de développement à 200$