votre avatar

shlagevuk

est avec nous depuis le 22 avril 2014 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

93 commentaires

AMD Ryzen : « il n'y a aucun problème avec le scheduler de Windows 10 »

Le 14/03/2017 à 18h 49

Je n’ai pas souvenir que la communication d’AMD ciblait énormément les joueurs pour la release des R7. Au contraire c’était bien plus souvent les power-user qui étaient ciblés via les bench. Et vu les résultat une fois sorti c’est bien eux qui ont intérêt à acheter du ryzen.
Sachant qu’en plus, les performances en jeu ne sont certes pas au niveau des I7/I5 hautement cadencé d’intel mais sont loin d’être mauvais dans l’absolus.
 
Du coup j’ai surtout l’impression que tu as été over-hypé plus qu’autre chose.


MediaTek annonce son SoC Helio X30 avec 10 cœurs en 10 nm

Le 02/03/2017 à 18h 02

Oui et non, certes on peut faire varier la fréquence processeur et la tension qui lui est appliqué pour en faire varier la puissance consommé.
Sauf qu’un processeur n’est pas aussi simple, lors de sa conception, le placement des différents éléments du die, les répétiteurs de signaux, les caches, le process de gravure, etc… sont définit avec une certaine fréquence/efficience cible.
Par rapport à cette fréquence cible, si on monte un peu, on augmente rapidement la consommation car le processeur demandera une tension bien plus élevé pour que les signaux se déplacent assez vite. Si on descend on garde une certaine consommation “résiduelle” des éléments mis en place pour permettre le fonctionnement initial.

Du coup multiplier les coeurs en fonction des usages prend un sens avec l’objectif d’améliorer l’efficience de l’ensemble.

TL;DR: C’est comme une boite de vitesse, plus tu as de rapport différents mieux tu peux adapter ta conduite et ta consommation :)


Le 02/03/2017 à 11h 20

L’intérêt est d’avoir trois profiles de performance/w pour avoir au final le meilleurs rapport  expérience utilisateur  par  watt.
La commutation n’est pas si coûteuse que ça dans un environnement où la majorités des tâches sont destinés à un humain. Une migration de 500µs n’est pas vraiment importante à cette échelle.


AMD Ryzen 7 sur socket AM4 : notre premier bilan, à lire avant de craquer (ou pas)

Le 02/03/2017 à 17h 50

Mais qui auront une enveloppe thermique ou un potentiel d’OC permettant une monté en fréquence plus simple.

Ou tout simplement un rapport perf prix compétitif face aux i5/i7. Un R5 donnant 90% des perf d’un i5 mais placé dans les 150€ sera largement préférable. Les 100€ ainsi dégagé seront bien mieux investis dans une carte graphique plus haut de gamme par exemple.
Sachant que les perf CPU ne sont pas le facteur principal de performance en jeu, c’est la CG qui compte dans la très large majorité des cas…

Il ne faut pas non plus oublier l’arrivé des APU à peu près au même moment que les R5. Or avec une micro-architecture plus efficiente ça ouvre la voie à l’intégration d’une partie graphique plus puissante, ce qui permettrait d’avoir des pc de jeu milieu de gamme sans carte dédié, ce qui est déjà le cas sur le bas de gamme.

Encore une fois il faut voir le placement tarifaire par rapport au marché visé.


Le 02/03/2017 à 16h 57

C’est amusant de voir le nombre de personnes qui soulignent systématiquement que les ryzen sont moins bon en jeux par rapport à un i5/i7.

C’est normal . Ces processeurs ne sont pas cadencé au même niveau et malgré le fait que les jeux parallélisent mieux les calculs CPU c’est encore assez limité et très peu d’éditeurs cherchent à améliorer le parallélisme au delà de 4 coeurs.

D’ailleurs pour jouer il n’est pas conseillé de prendre un i7 mais un i5 au passage, le second étant souvent plus performant car le SMT dissipe pas mal de chaleur ce qui limite l’usage des fonctions “turbo” des processeurs intel.

TL;DR: Si vous souhaitez jouer, attendez les R5.


Amazon S3 : des sites et objets connectés inaccessibles cette nuit à cause d'une panne

Le 01/03/2017 à 13h 49

Les aléas du minitel 2.0


Télécoms : la FCC annule des avancées récentes et adoube le « zero rating »

Le 09/02/2017 à 09h 57

Pour les pharmaciens je suppose que l’encadrement des prix par la sécu ne leur laisse une marge de manœuvre que faible, c’est d’ailleurs surement de ce fait que ceux-ci concentrent leurs effort de promotion sur la parapharmacie ou les médicaments sans ordonnance.

 Pour les agences immobilières le fonctionnement des locations sont très encadré (rapport d’entré, de sortie, prix au m², commission de l’agence, etc…). Du coup si quasiment tout ce que représente ton produit est fixé par l’état tu ne peux pas proposer de différenciation. Celle-ci devant très certainement te coûter de l’argent que tu ne pourras pas récupérer du fait que tes prix ne sont pas modifiable.


Un député veut restreindre l’usage des hoverboards et gyropodes sur les trottoirs

Le 01/02/2017 à 14h 27

Sinon pendant ce temps là si l’on dépasse les 250w de puissance sur un vélo électrique il faut un permis scooter, si l’assistance électrique ne se coupe pas au delà de 25km/h on passe également dans la catégorie scooter…

Ce serai bien d’harmoniser la législation sur les véhicules électrique (et la création d’une catégorie dédié tant qu’a faire parce que 250w/25kmh c’est ridicule) plutôt que de vouloir tout interdire.


Backblaze fait le point sur les pannes de plus de 70 000 disques durs

Le 01/02/2017 à 12h 18

Oula, gros warning à poser en gras de partout sur ces statistique et sur certains modèles de disques utilisé.

Backblaze n’est pas représentatif d’une utilisation normale de ces disques!  Plusieurs points à prendre en compte:

-Les st4000dx000 ont été acheté lors de la pénurie de disques suite aux problèmes en asie du sud (plein d’usine de fabrication de disque sous l’eau). C’étaient des disques externes qui ont été démonté pour les placer dans les serveurs.

 -Les premiers modèles des pods qu’ils avaient conçus n’était pas très efficace en ce qui concerne l’aténuation des vibrations, or certains disques ou modèle le supportent très mal. La plupart des surcoût dû aux disques serveur ou entreprise viens justement du fait qu’ils gèrent mieux les vibrations parasites venant d’autres disques. (double point d’attache pour l’axe de rotation des disques, système d’atténuation des vibrations, capteurs de vibrations et mise en sécurité plus sensible ect…

-Les disques en question n’ont également pas un nombre particulièrement important (189) ce qui statistiquement est moins précis in-fine. Il suffis de comparer avec un modèle proche comme le st4000dx000 qui n’as que 2.77% de panne pour 34700 disques.


Globalement l’initiative de backblaze de publier ses statistique de panne est intéressante et il y a des informations à en tirer, mais par contre dire que la marque X est pourris à cause d’un cas particulier dans celle-ci c’est faire fi du cas particulier que l’usage de backblaze représente.


AMD dévoile de premières cartes mères AM4, LDLC partenaire du lancement de Ryzen

Le 05/01/2017 à 10h 34

Sauf que beaucoup d’application bureautique/Jeu sont très mal multi-threadé ou dur à multi-threader. Du coup la multiplication des cœurs n’est qu’un gain de performance secondaire et la performance mono-coeur reste le nerf de la guerre de la performance CPU.
 
Or sur ce point intel fait du quasi sur-place depuis presque 4 générations… (améliorations IPS faible ou inexistante, monté en fréquence de même voir qui régresse.)


« La première route solaire du monde » inaugurée en France, le début d'une nouvelle ère ?

Le 27/12/2016 à 16h 38

C’est amusant de voir qu’il y a quand même des gens qui trouvent que les routes solaires sont une bonne idée malgré les simples chiffres qui font que cela est une absurdité.

En étant généreux:
 
C’est 5 à 10 fois moins efficace au m², 850kwh/an vs 100kwh espéré pour la route, et les 850kwh/an sont pessimiste.
C’est au moins 6 fois plus cher à installer, 1€/m² vs 6€/m² pour la route selon bouygue.

 Rien que là on est sur un delta de 30 à 60 fois moins efficace pour les routes sans ajouter à cela d’autres problématiques comme l’usure de ces panneaux qui auront à supporter bien plus de contrainte qu’un panneau standard.

Les routes solaires sont une HERESIE.


Les États-Unis actualisent leur « liste noire » des sites pirates, le stream-ripping dans le viseur

Le 27/12/2016 à 14h 26

Je me pose un peu la même question que RaoulC, en quoi youtube-dl serai un outil facilitant la contrefaçon par rapport à un enregistreur audio/vidéo?

Bon en cherchant un peu effectivement youtube-dl est interdit car les vidéo youtube utilisent EME comme DRM, or dans ce cas la L335-2-1 s’applique bien.
Par contre vu que c’est un logiciel opensource bon courage pour le faire interdire :-/


HGST annonce des disques durs de 12 et 14 To, des SSD de 7,68 To à 6,1 Go/s

Le 07/12/2016 à 16h 59

Oui et non.
Dans certains cas particulier tu peux saturer ton processeur via des données.
Mais dans la majorité tu seras contraint pas les latences des différentes mémoire plus que par leur débit. Bien que très rapide comparativement aux disques dur, un SSD reste “lent” en temps processeur.
Pour donner un ordre de grandeur la latence d’accès à la RAM est inférieur à 100ns, la latence d’accès à de la mémoire flash est de l’ordre de 10 à 100µs (100/1000x plus).
http://stackoverflow.com/a/27803969

Après ça reste quand même super d’avoir des SSD de plus en plus performant en terme de débit et d’IOPS. Et le simple fait de passer de plus en plus sur des modèles nvme améliorent aussi les choses! (pour résumer le nvme est un protocole de communication qui “remplace” le SATA/SAS pour les mémoire rapide comme les SSD, le but étant de réduire les traitements nécessaires pour accéder aux données.)
&nbsphttp://www.anandtech.com/show/7843/testing-sata-express-with-asus/4


Piratage : GKS.gs condamné à 3 millions d'euros, la justice sauve l’amendement Vivendi

Le 25/10/2016 à 15h 02

Hum… un site est un logiciel, sauf si tu parle d’un site statique en pur html/css sans JS ou backend, où là ce serai plutôt apparenté à un fichier.


Au Sénat, un rapport envisage une durée de garantie légale de 4 ans pour les mobiles

Le 30/09/2016 à 09h 04






DayWalker a écrit :

“Imposer la réversibilité des mises à jour”

 OK, soit.. mais bien souvent, c’est l’absence de mise à jour qui est gênante, et là, aucun mot ?


Je me disais exactement la même chose, puis je me suis souvenu qu’il y a IOS :)



Les maîtres d’ouvrage désormais contraints de faire remonter leurs « données de biodiversité »

Le 10/08/2016 à 15h 23

Il faut faire le parallèle avec les fouilles préventives qui sont effectués sur les sites de constructions. Ces fouilles permettent par exemple de découvrir des sites datant de l’ère mérovingienne sur laquelle on a assez peu d’information.
Les informations sur la biodiversité des sites avant leur constructions permet de nourrir les études sur la préservation de lieux clés pour la biodiversité, ou d’argument pour l’extension de zones protégés.


Un député souhaite une étude sur l’électro-hypersensibilité

Le 03/08/2016 à 09h 28

Les électrosensible ce sont les même qui se soignent à homéopathie, non?


Tesla propose 2,6 milliards de dollars pour racheter SolarCity, qui a 45 jours pour trouver mieux

Le 02/08/2016 à 07h 34

On est encore très loin d’avoir des piles à combustible dans nos voitures. La fragilité du système empêche complètement son utilisation non-statique.
De plus même si l’on sais “fabriquer” de l’hydrogène, on ne sais pas le faire efficacement, les rendement actuels sont aux alentours de 50%, si on ajoute les pertes lié à la pile à combustible derrière on doit dépenser ~2,1kwh pour produire 1kwh via une pile à combustible.
Ce genre de système sera surement intéressant lorsque les énergies renouvelable seront plus largement disponible (et du coup on aura des pics de production à absorber) mais en attendant son utilisation est bien moins pratique que de simple batteries.
(source wikipedia + veolia)


Docker 1.12 : orchestration intégrée, clients natifs pour OS X et Windows

Le 01/08/2016 à 08h 01

Tu peux développer ton propos? Parce que normalement c’est le contraire, ça permet  aux dev d’avoir un environnement “iso-prod” sur leur machine.


Le 01/08/2016 à 07h 58

Une simplification assez facile à comprendre est de se dire que c’est comme de la virtualisation mais sans avoir à charger un système d’exploitation.
Le noyau du système hôte est partagé par les conteneurs qui s’exécutent.

Du coup tu as un peu le même principe qu’un .exe effectivement, ton application est “packagé” dans un conteneur docker qui contient tout ce qu’il lui faut en terme de librairie et dépendances.


Ethereum : un « hard-fork » controversé pour oublier The DAO

Le 20/07/2016 à 16h 12

D’après ce que j’ai compris de cet article-ci, l’ether est une crypto monnaie comme peut l’être le bitcoin, litecoin, dogecoin etc.
Or comme toutes les cryptomonnaies “standard” toutes les transactions sont écrite dans une blockchain qui est distributé à tout les participant du réseau.
C’est là qu’arrive DAO, qui est créé par une entreprise allemande Slock.it. The DAO est conçu comme une entreprise dématérialisé qui “vie” dans la blockchain de l’ether et fonctionne en publiant des smart-contract qui ne sont au final que des programmes informatiques stipulant les condition de complétion de contrats. Ces smart-contrat sont la base du fonctionnement de the DAO et sont inscrit dans la blockchain et par conséquent sont impossible à modifier.Malheureusement comme tout programme informatique il peut y avoir un bug, et une personne sur le réseau a profité de ce bug pour soutirer les quelques 50 millions de dollars d’équivalent d’ether.Or vu que le contrat est dans la blockchain, même buggué il est valide, l’utilisation du bug du contrat n’est donc pas répréhensible si on se fie au fonctionnement purement technique des smart-contrat.Sauf que 50M\( ça fait mal de les perdre. The DAO ayant été crowdfoundé avec des objectifs divers, ce manque dans les caisses impacte forcément ses objectifs. Des actions ont donc été entreprise pour trouver une solution.Et c'est là qu'interviens le hard-fork, le principe est de pousser les gens sur une nouvelle version de la block-chain incompatible avec la précédente. La nouvelle version corrigeant les 50M\) hacké à the DAO.Sauf que… Si on peut aussi facilement hard-forker une blockchain et la modifier, le principe même qui assure l’immutabilité des  transactions est violé et, basiquement, les participant perdent confiance en la cryptocurrency car son échange n’est pas garanti. “If contracts held to be inviolable can effectively be overturned by a collective decision to run new software, what guarantee do financial institutions have that their transactions and funds are secure?”


Seagate annonce trois disques durs de 10 To, deux sont déjà en cours d'expédition

Le 20/07/2016 à 11h 20

Le retour d’expérience de backblaze est a prendre avec de très grosse pincettes.

La charge de travail des disques est très spécifique, ils ont un usage élevé au début lorsqu’ils se remplissent de données puis ont un rythme de croisière beaucoup plus calme. On ne peux donc pas vraiment juger de l’usure de leur disque par rapport à un disque de travail par exemple.

Ensuite ils ont des boitiers spécialement conçu pour palier les problèmes de vibration que peuvent avoir des disques grand public. Utiliser les mêmes disques dans une tour lambda peut s’avérer être une très mauvaise décision, beaucoup d’erreur de lecture peuvent survenir et la durée de vie des disques grandement diminuer.

Sources:http://www.tweaktown.com/articles/6028/dispelling-backblaze-s-hdd-reliability-my…
(tl;dr:)http://www.zdnet.com/article/trust-backblazes-drive-reliability-data/


Microsoft présente Natick, son projet de centre de données sous-marin

Le 01/02/2016 à 16h 08

Oui et non, pour des systèmes basé sur un fonctionnement horizontale (scale-down) et non verticale (scale-up) le fait d’avoir des machines qui tombent en panne n’est pas vraiment un problème dans que l’on dispose d’assez de ressources pour exécuter les applications ailleurs.

Exemple: un site web moderne va avoir une architecture redondé et habituellement basé sur des VM ou des conteneurs autre. Il va y avoir N serveur SQL pour les données, N serveurs applicatifs pour la logique, N serveur de cache, etc… Si une machine physique hébergeant la VM d’un serveur applicatif tombe, les autres serveurs exécutant les VM de serveurs applicatifs tournent toujours et permettent d’avoir le temps que la VM tombé soit redéployé sur un autre serveur physique.
Globalement il suffis d’avoir de la ressource ailleurs et les serveurs défaillants n’engendrent pas d’indisponibilité.
 


Les précommandes pour l'Oculus Rift ouvriront demain soir

Le 06/01/2016 à 16h 20

Idem…


Netflix : débits moyens, meilleure compression et nouvelle application Windows 10

Le 17/12/2015 à 10h 20

En gros il se sont rendu compte que les profils de compression à double passe et/ou taille fixe ne sont pas forcément les plus intelligent en terme de compression ?
Il faudrait peut-être leur donner un tuto sur l’utilisation de ffmpeg :)


HGST annonce les Ultrastar He10, des disques durs de 8 et 10 To

Le 03/12/2015 à 11h 32

Oui et non, ZFS effectue des checksum ce qui permet de détecter les corruptions silencieuses (notamment grâce à la fonction de scrub), mais pas de les corriger. Il faut avoir de la parité ou une duplication pour reconstruire la donnée quand elle est détecté comme corrompu.


Le 02/12/2015 à 16h 37

Pour le coup le SMR, ça dépend des disques mais normalement ça ne pose pas de problème.

Donc oui, il n’y a pas de raison que tu ne puisse pas utiliser un tel disque dans un pc “grand public”. L’inconvénient du SMR est que les blocs présent sur le disque pour une écriture sont beaucoup plus gros que sur un disque standard. On était à 512o avant, maintenant on a une norme à 4ko, les SMR écrivent des bloc de 64Mo. Donc pour modifier un seul fichier il faut écrire 64Mo de données (lecture, modification, écriture) ce qui prend du temps et donc dégrade les performances.

Sur l’histoire du raid 5/6/7/x oui il y a une probabilité de plus en plus forte à mesure que la taille des disques augmente que l’on tombe sur une erreur irrécupérable.
Le plus simple pour visualiser la chose est le raid 5, imaginons qu’un des disques soit mort que l’on souhaite reconstruire son raid. Lors de n’importe quelle lecture de donnée tout les disques ont une probabilité de faire une erreur irrecuperable, (110^14 habituellement). Or ici on reconstruit le raid, on ne dispose plus de parité pour vérifier les données, on va donc soit: détecter une erreur et on perd la donnée, soit ecrire une donnée et une parité fausse lors de la reconstruction.
Additionner à ça la probabilité qu’un disque tombe en panne pendant la reconstruction et les temps de reconstruction de plus en plus long et vous aurez compris que les raid deviennent, à parité égale, moins sûr avec l’augmentation de la taille des disques.
Pour un particulier ce n’est pas une grosse problématique, mais dans le monde pro, corrompre une donnée est impensable.
L’ajout de disques de parité en plus ne fait que déporter le problème à quand nous auront des disques plus gros.

source:http://www.zdnet.com/article/why-raid-6-stops-working-in-2019/


La CNIL donne son feu vert au déploiement du compteur Linky

Le 03/12/2015 à 10h 31

Il est déconseillé de les brancher sur des multiprise du fait des autres appareils branché dessus et de la qualité douteuse de nombreuses multiprises. Là le but est juste de tester le débit max des deux blocs CPL en les branchant le plus près l’un de l’autre.


Le 02/12/2015 à 16h 02

Après quelques recherche je suis tombé là dessus:http://www.generation-nt.com/reponses/limite-des-reseaux-cpl-entraide-250644.htm…

“Pour en revenir aux interrupteurs différentiels, effectivement ils font

obstacle aux courants CPL (haute fréquence), puisque constitués de 2

selfs-induction qui font écran aux courants HF (Z = 2x Pi x N x L)”

 


Le 02/12/2015 à 14h 07

Non, mais ça n’aime pas du tout:
https://lafibre.info/tutoriels/cpl-debits-theoriques-et-debits-pratiques-conseil…


Le 02/12/2015 à 14h 05

J’ai regardé un peu les commentaires et je trouve pas mal de réactions assez amusante vu que je bosse sur du linky.

Je vais pas chercher plus loin sur les “onde de la mort du CPL” c’est trop comique de voir ces choses là pour avoir une réaction constructive. :)
 
Le but premier du compteur connecté pour un acteur comme edf/erdf ce n’est pas de facturer plus, c’est de lisser la consommation.
 Effectivement le compteur peut envoyer une information à vos équipement, ce signal existe déjà, c’est le passage en heure pleine/heure creuse qui lance notamment les ballons d’eau chaude électrique.

Avec ça EDF espère lisser suffisamment la consommation lors des pics de charge le soir pour utiliser moins les centre de production au gaz/diesel qui leur coûte bien plus cher qu’une centrale nucléaire en terme de prix/kwh.

Ensuite les risques sur les informations transmises par les compteurs? Elles ont une latence de souvent 24h, sont chiffré de bout en bout (recommandation de l’ANSSI). Et comme le dit l’article, vous n’êtes pas obligé de les transmettre.

Ensuite sur l’aspect domotique que peut permettre le compteur (ex: décaller le départ d’une machine, limiter la lumière, décaler le rechargement de certains appareil). il est prévu et doit normalement être direct entre le compteur et vos appareils via un petit module. Mais je doit avouer que j’ai assez peu d’info à ce sujet.

 La ville de Lyon dispose d’un site sur les expérimentations à ce sujet là.http://www.smart-electric-lyon.fr/
 

Globalement je trouve que le Linky est bien, mais est trop orienté  dans l’intérêt primaire d’EDF, le rendre plus accessible aux particuliers et surtout pouvoir se baser dessus pour de “vrai smart-grid” basé sur des énergies renouvelable aurai été un plus.


Le 02/12/2015 à 13h 51

Je ne saurai trop te conseiller de faire des tests pour isoler le problème. Test les débits de tes deux bloc CPL dans différentes conditions. Par exemple déjà vérifie leur débit “max” en les branchant sur la même multiprise, puis tu test sur des prises différentes.

Diagnostiquer les problèmes d’un réseau CPL est assez compliqué, c’est pour ça que je ne le conseil jamais ou presque.


Le 02/12/2015 à 11h 53

Aucun rapport entre ton CPL et le CPL utilisé par le compteur linky. Les deux ne sont pas tout à fait sur le même réseau (normalement tu as un différentiel entre les deux qui le filtre) ni sur les même fréquences.
Si tu as des problèmes avec ton CPL regarde si tu ne passe pas par ton différentiel entre tes points d’accès, et surtout vérifie que tu n’ai pas des bloc d’alimentation bas de gamme qui ont tendance à introduire énormément de perturbation harmonique sur la porteuse.


Revue de presse : le SSD 950 Pro M.2 et NVMe de Samsung tient-il ses promesses ?

Le 23/10/2015 à 14h 35






Krogoth a écrit :

Et pour les rad de carte graphique tu fais comment actuellement?


Les colles à radiateurs fonctionnent très bien ce genre d’usage, les vieilles carte graphique avait souvent des petits radiateurs sur les étages d’alimentation et étaient fixé avec de la colle à faible résistance thermique.
 Un petit radiateur comme ceux pour les  raspberry pi ne coûte que quelques euro et est largement suffisant pour dissiper les quelques W de trop généré par le contrôleur.



FreeNAS 10 : une première alpha qui annonce de gros changements

Le 12/10/2015 à 12h 55

Effectivement, si on utilise ZFS il faut utiliser de la mémoire ECC. Sinon on risque de perdre toutes ses données!

(pour le fonctionnement: ZFS fait un checksum de toutes les données présente sur le disque pour des raisons de robustesse et pour éviter les cocrumptions silencieuse des données. Ce checksum est vérifié sen mémoire lorsqu’une donnée est lue, si la mémoire vive a une erreur sur un bit de donnée, le checksum change et ZFS va “corriger” l’erreur en écrivant les données corrompues sur le disque. Si on fait un scrubs d’un volume entier, toutes les données peuvent passer dans cette espace de mémoire vive corrompue et ainsi corrompre les données de tout le disque en plus de corrompre l’architecture du système de fichier.)


HDMI : une certification « Premium High Speed » pour les câbles

Le 07/10/2015 à 14h 14






Charly32 a écrit :

Autant sur les interfaces analogiques il est encore logique d’accorder de l’importance à la qualité du câble, autant sur une interface numérique (tant que le câble ne fait pas 15m) il faut y aller pour interférer suffisamment entre le niveau “1” et le niveau “0” du signal.
A quand des câbles Rj-45 plaqués or? <img data-src=" />
&nbsp;


En fait on est loin du temps des signaux “carré” avec un traitement du signal simple sur les débit dépassant le Gb.
&nbsp;
&nbsp; Bon par contre je suis daccord que la majorité des câbles dépassant les quelques euros le mètre sont poussé par des idiophile nourris au marketing bullshit.



Les expérimentations de voitures autonomes bientôt autorisées sur les routes françaises

Le 19/08/2015 à 21h 58

En fait non au contraire, les voitures autonomes sauront basiquement bien mieux se comporter sur les routes à visibilité réduite qu’un conducteurs lambda. Tout simplement parce que la voiture connais sa distance de freinage et sa distance de visibilité.
&nbsp;Résultat? Un chemin avec faible visibilité poussera la voiture à rouler plus lentement mais roulera quand même, et elle sera plus sûre que le kéké du coin qui roule à 90km/h sur une petite route sans visibilité.
&nbsp;


Matchstick : clap de fin et remboursements pour la clé HDMI sous Firefox OS

Le 04/08/2015 à 07h 10

J’avais kickstarté le projet en prenant deux clés… C’est dommage, le projet était prometteur et aurai pu permettre de lancer d’autre projet embeded sous firefox OS.


Facebook Messenger veut exploiter les applications mobiles et devenir un outil de service client

Le 26/03/2015 à 09h 22

Je test un peu le logiciel, c’est sympa. Merci du tuyau!


[MàJ] La Quadrature du Net ne disparaîtra pas en 2015

Le 19/12/2014 à 14h 46

Ce n’est pas parce qu’une association a des employésqu’elle est à but lucratif. Ce n’est pas non plus parce qu’elle vend des bien et réalise des bénéfices qu’elle est à but lucratif!

Et sinon sur le fait qu’ils ont 5 salariés (4,5 temps plein), il faut savoir qu’ils bossent sur de nombreux sujets comme tu peux le voir sur leur site, et que le lobbying ça prend du temps. Beaucoup de temps.
Ici le lien d’une “petite” vidéo (1h30) sur les sujets traités par LQDN cette année

Et sinon effectivement le propos de Philippe Aigrain était mal orienté, voir insultant. Mais le fond est là, LQDN est réellement utile sur des problématiques dont vous devriez (je suppose) être sensible si vous lisez nextinpact:
-Neutralité du net
-Vie privée
-Réforme du droit d’auteur
-etc…

&nbsp;Alors pourquoi ne pas regarder la réalité des faits et à minima relayer auprès de ses amis la page de soutiens à LQDN?


Les marchés publics sur les cartouches de marque font parfois mauvaise impression

Le 24/11/2014 à 10h 35

Pour le coup CPCHW a fait quelques test sur les cartouches d’impression non-officielles récemment.

Ce qu’il en ressort est que les cartouches “officielles” sont rarement (jamais?) un bon choix, tant par leur rapport qualité/prix que par la qualité d’impression intrinsèque. Seules les cartouches vraiment premier prix souffrent de problème de rendu d’impression et de longévités.
&nbsp;


Owncloud 7 bêta : cap sur les terminaux mobiles et le partage de fichiers

Le 01/07/2014 à 08h 37






Ler van keeg a écrit :

Et le retour du streaming audio via Ampache c’est pour quand ? <img data-src=" />



Ou tout simplement installer ampache? Il manque juste un client android qui fonctionne bien <img data-src=" />



Le nouveau Raspberry Pi Compute module est disponible pour... 200 dollars

Le 23/06/2014 à 14h 45

Le form-factor en barrette de ram est intéressant pour la densité de calcul. Imaginez des rack 1U de centaines de ces cartes. Un nombre de cœurs énorme. Et pourquoi pas des soc ARM plus puissant!

Ça donnerai des serveurs avec plusieurs centaines de cœurs de calcul avec des centaines de Go de ram. Pour du big data c’est excellent!

Reste à travailler sur l’interconnexion des modules, d’où la board de développement à 200$