votre avatar

Bejarid

est avec nous depuis le 5 mai 2008 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

2545 commentaires

Intel : deux nouvelles variantes de Spectre identifiées, « la plupart des OS modernes touchés »

Le 12/07/2018 à 16h 36






hellmut a écrit :

c’est une diminution de la surface d’attaque.
il ne prétendent pas patcher la faille hein. ^^

edit: je suis pas expert en CPU non plus. <img data-src=" />


Sauf que Spectre attaque les threads, pas les process, donc sortir les threads dans des process différents… Je comprend vraiment pas ce que ça diminue, dommage qu’ils rentrent pas dans les détails.



Le 12/07/2018 à 09h 45






hellmut a écrit :

à noter que l’équipe de Chromium Security vient d’inclure l’isolation de sites dans la dernière version de Chrome (67), justement pour adresser des failles comme Spectre.




 Tu sais comment ça marche ? Car le principe de Spectre et cie c'est bien de bypasser toutes les protections (logiciel/OS). Du coup je vois pas en quoi forcer l'isolation des process au niveau OS peut aider. Je comprend pourquoi ça protège des attaques JS internes au navigateur, mais face à une attaque matérielle ça me parait impossible...     


&nbsp;
This means that even if a Spectre attack were to occur in a malicious web page, data from other websites would generally not be loaded into the same process, and so there would be much less data available to the attacker. Leur usage de ‘generally” et “less data” mais parait trompeuse ici. Ca peut à la marge aider (des threads pas dans le même processus ont moins de chance de partager un coeur) mais en aucun cas ça protège de facçon fiable. Faudra juste un peu plus de temps pour extraire les données, mais on parle en minutes…



OVH lance une offre d'hébergement Cloud Web avec SSD « local »

Le 12/07/2018 à 09h 54






tipaul a écrit :

Mais parler de 25Go, je trouve ça commercialement un peu limite


Surtout vu la taille de la police utilisé pour le “-15Go”. C’est genre du 1 pixel :p



Cryptomonnaies : la plateforme Bancor piratée, l'équivalent de 23,5 millions de dollars dérobés

Le 11/07/2018 à 09h 29

Quand tu concentres des richesse dans un seul endroit, il faut le sécuriser. Sinon, que ça soit des lingots d’or ou de la monnaie virtuelle, le résultat est le même : tu te fais volé.

Ces sites de boursicoteurs du dimanche ont souvent une infra en carton (pas d’isolation, compte multi-usage, etc.), donc forcément, ils se font vider. Les banques qui font aussi n’importe quoi (cf la banque central indienne récemment) ont exactement le même problème.
&nbsp;





TheFelin a écrit :

C’est beau le virtuel :) Des chiffres dans les méandres de l’informatique ou sur du papier qui ne correspond à rien de la réalité, nous sommes pas loin des banques ;-) vivement que cette merde s’écroule et que l’on retourne un peu dans le monde réel….


T’as qu’a émigré en Corée du Nord si tu veux retourner à l’age de pierre. Y a très peu de virtuel là bas, je te le garantie.



Machine learning : déjà une version 0.3 pour le framework ML.Net

Le 11/07/2018 à 09h 20

Mais qu’est-ce que vous racontez ?! <img data-src=" />
La version après la 0.9 n’est pas la 1.0 mais la 0.10.

La vitesse des nouvelles version ne présage pas de l’avancement du projet ! C’est juste qu’ils releasent régulièrement pour suivre leur méthodologie agile-like.


#Replay : mer fragile, Silicon Valley et dangers du Net

Le 07/07/2018 à 10h 54






Radithor a écrit :

Personnellement,&nbsp; j’aime bien ces documentaires où on fait parler différentes personnes qui parlent selon leur point de vue. Par exemple, au début du documentaire, l’interview du responsable d’une coopérative du lait qui vante les vertus du lait : on comprend facilement qu’il va pour le moins minimiser les défauts du lait et raconter une belle histoire à propos du produit qu’il vend. Chacun a sa propre expérience des choses ; et de ce fait, son propre point de vue qui, assemblés tous ensemble, forment une sorte de vérité.


Tout a fait, et ce documentaire donne toutes les informations pour contextualiser les interventions. On sait qui fait quoi, les gens accusé on un droit de réponse, etc. C’est très clean, après faut quand même être très attentif aux détails, car la plupart de ces infos ne sont pas mises en avant. Celui qui veut voir une confirmation que le lait est mauvais la trouvera sans doute…
&nbsp;


Radithor a écrit :

Personnellement, je bois du lait plusieurs fois pas semaines, et parfois quotidiennement car j’aime ça, mais je n’irais pas jusqu’à affirmer que le lait n’a que des vertus et qu’une consommation excessive serait sans danger.


Bah ça personne ne le dit. Et la consommation recommandé est de 200ml, forcément si les suédois étudié en boivent 600ml en moyenne, et donc plus d’un litre pour une bonne partie de l’échantillon, ben ça pause problème car l’acide lactique s’accumule dans l’organisme et détruit les os. Y a rien d’étonnant… C’est malhonnête tout ça, car l’eau aussi serait mauvaise à ce rythme là : si t’en boit 10 litres d’un coup tu fais une encéphalite !



Radithor a écrit :

D’ailleurs, quand on parle de lait, de quoi parle-t-on ? le lait frais, le lait pasteurisé, lait UHT


Tu oublis les micro-filtrés, les catégories (écrémé, entier, enrichis en vitamines)… Bref, c’est complexe et les petites phrases méchantes qui disent juste “lait”, c’est ridicule. Et quand je vois quelqu’un dire que du Yoplait c’est un produit laitier ça me fait rire : y a plus de sucre que de lait, c’est donc une confiserie pas un produit laitier. C’est vraiment un débat pourri par des idiots qui cherchent juste à se faire du fric au détriment de la santé des autres (car oui, la nutrition c’est vitale).

Je trouve quand même que ce documentaire aurait gagné, en terme d’intérêt public, à dénoncé un peu plus clairement ces pratiques (cette clinique homéopathique, ce faux journaliste, etc.).



Le 06/07/2018 à 19h 23

Sympa le docu sur le lait. Ça montre bien que c’est des conneries les anti-laits.



 Entre le médecin allergéniste qui se contredit à chaque phrase (genre le lait c'est mal, car dans les yaourts y a plein d’épaississants et d'édulcorants ! Euh... Que ça fait grossir ! Euh...), et le directeur d'une clinique (privée hein) qui jure que le lait c'est un poison, c'est prouvé scientifiquement... Sauf que sa clinique, elle fait son beurre avec les traitements homéopathiques, oui, ceux-là même que la science réfutent en bloc (que cela soit les sciences physiques car la mémoire de l'eau ça n'existe pas, que les sciences médicales, car non ces traitements n'ont pas d'effets significatif). Et sa définition d'étude scientifique qu'il donne ensuite ne surprend même pas, le mec est juste malhonnête en faite :p       





 Grosso modo, pour eux les études scientifiques c'est de la merde, ils font mieux dans leurs cabinets. Du beau bullshit ! Et quand des pseudo-journalistes (mais qui n'ont, bizarrement, aucun employeur <img data-src=">) se joignent à la fête, on finit l'émission en apothéose ("On m'a pas attaqué en justice, donc ce que je dis est vrai." LOL).       





 Ça montre bien comment certains, y compris des médecins, sont absolument convaincu que l'empirisme locale vaut mieux qu'une démarche zététique. C'est assez malheureux, au lieu de chercher les erreurs qui pourraient être présente dans ces études (ou dans leur pratique, a priori on sait pas qui a raison ou tort), et donc faire avancer la science, ils préfèrent la rejeter en bloc :(

Lian Li PC-O11 Air : un boîtier E-ATX avec USB 3.1 Type-C et verre trempé, dès 129 euros

Le 06/07/2018 à 11h 03

Les 4 filtres à nettoyer pour garder ça efficace sont derrières pleins de vis et de gros panneaux malheureusement :(

C’est le type de tour que j’ai acheté une fois mais plus jamais. Si faut tout démonter pour accéder aux filtres, c’est chiant, du coup tu le fais pas (en tout cas pas tous les 15j comme il faudrait), donc ça chauffe plus qu’une tour avec moins de ventilo mais aux filtres propres.


La Californie prépare de nouvelles règles sur la neutralité du Net

Le 06/07/2018 à 10h 34

C’est marrant comment le fossé droite/gauche se creuse aux US, où tous les coup sont permis avec l’approche des mid-terms. Leurs résultats seront sans doute très intéressants à analyser, et lourds de conséquences !

Et pendant ce temps là en France, les mois passent et ce clivage n’est toujours pas vraiment revenu ^^ Et j’ai pas l’impression que les européennes y changeront grand chose.


Concours des 15 ans : il vous reste jusqu'à demain soir pour participer et tenter votre chance

Le 05/07/2018 à 21h 28

NXi c’est une source d’info généraliste pour moi maintenant. Vous traitez beaucoup de sujet, y compris certains parfois oublié par d’autre.

Par contre, dès qu’on parle politique, ben c’est des cons/escrocs et il faudrait qu’ils ne fasse rien dans le domaine du numérique, car ce qu’ils font est pire que de ne rien faire. Chose sur laquelle je suis pas du tout d’accord, du coup je vous ignore et me fournit ailleurs (LeMonde…).

Dès qu’on touche à une grosse boite où à du business, vous êtes tout de suite critique, alors que c’est quand même elles qui font les efforts d’investissement les plus important pour faire avancer les nouvelles technologies. Du coup là dessus aussi, je vous ignore et me fournit ailleurs (ZdNet…).

Et malheureusement, sur la partie matérielle/systèmes (OS, appliances…), vous n’apportez rien et ne faites que (mal) traduire les annonces presses. Non seulement vous ne faites pas de test de perfs, mais même de manière général vous semblez largué sur ce qui se fait, ce qui fonctionne, ce qui a du succès etc. Du coup je me fournis ailleurs aussi (STH…).

Remettre en avant INpact Hardware pourrait vous permettre de remonter en terme d’info interne, et de compétence interne également, c’est donc probablement une très bonne chose. J’espère donc que vous pourrez vous remettre au niveau au moins sur ce 3ème point, car pour les deux premiers c’est probablement peine perdu (car décision éditoriale que vous ne changerez pas, c’est elle qui fait probablement venir la plupart de vos… ah, 8k abonnées. Bon courage…).


Trois éditions de Wikipédia ferment pour protester contre la directive droit d'auteur

Le 04/07/2018 à 16h 49






Cashiderme a écrit :

Solidarité ?


Cool, sauf que ce n’est pas la raison avancé. Ils avancent comme raison pour leur fermeture que cette loi risque de les faire fermer. Eux, pas d’autres site.



Le 04/07/2018 à 09h 44

Bah vu que les assoc à but non lucratif sont explicitement exclu du système, je suis pas sûr de voir ce qui menace Wikipédia. Ils sont pas net sur ce coup.


Quatre ans après s'être retirée, Dell va revenir en bourse

Le 04/07/2018 à 09h 17






Bejarid a écrit :

Sauf que j’arrive pas à trouver à qui appartient actuellement les 19% d’actions VMWare qui seraient recyclé…


Ah en fait on s’en fout. 100% des actions VMWare seront intégrés au groupe Dell T, et du coup les 19% d’actions publiques de WMWare deviendront 31% du groupe Dell (ou moins si ils revendent leur actions à Dell). Mais du coup le groupe valait moins que VMWare a lui seul ?

Dans tous les cas, si, pour moi Michael Dell et Silver Lake vont voir leur pourcentage baissé, forcément. C’est pas clair :(



Le 04/07/2018 à 09h 06






CryoGen a écrit :

Ce ne sont pas des nouvelles actions, mais des actions qui remplacent celle de VMWare, qui fait partit du groupe Dell.


Meh, c’est trop compliqué pour moi. Déjà avec la confusion Dell Technologies qui semble des fois utilisé pour le groupe, et des fois pour l’entité PC (donc distincte de VMWare). Et Dell semble déjà détenir que 81% de VMWare, et continuera à détenir 81% de VMWare. Sauf que j’arrive pas à trouver à qui appartient actuellement les 19% d’actions VMWare qui seraient recyclé…

Bon, j’abandonne, quand les boites font pas l’effort de rendre les infos accessibles, ça me dépasse :p



Le 03/07/2018 à 13h 43

Michael Dell détient pour rappel 72 % du groupe Dell Technologies et cette réorganisation ne changera rien sur ce point.
Bah si, ce sont de nouvelles actions qui vont être mise en vente, donc son % va diminuer. Mais il restera majoritaire, donc ozef, l’unique chose que ça changera c’est qu’il sera obligé de publier plus d’info (conformité SEC). C’est plutot une bonne chose !


Dématérialisation des démarches administratives : l’État lance un tableau de bord

Le 03/07/2018 à 13h 07

C’est un peu rudimentaire comme truc. Il manque la feature qui auraient permis de rendre ça vraiment utile en aidant l’administration à se prioriser : une interface d’upvote (comme n’importe quelle liste d’issue sur le net, ex. github). Ca ça aurait pu aider à choisir quoi démat le plus vite de façon transparente…

En l’état, c’est juste un csv à télécharger quoi. Ils veulent qu’on le fasse à leur place leur site ? Car c’est quand même pas un boulot énorme quoi. Pas de complexité, pas de charge élevé, rien. J’vais leur proposer gratos par mail tiens, je doute que ça prennent plus d’un WE à faire.


Microsoft Andromeda gommerait la frontière entre PC et mobiles

Le 02/07/2018 à 18h 16






CryoGen a écrit :

Hum effectivement. En fait personne ne sait rien de précis sur Andromeda <img data-src=" />


A priori on peut parier que c’est un projet chez MS sans prendre trop de risque :p
Et, on peut supposer que c’est un projet qui n’est pas encore “too big to fail” (comme a pu l’être Windows Phone, qui DEVAIT sortir, on a vu ce qu’il s’est passé), donc il pourrait ne jamais être officialisé (et mourir discrètement dans l’oubli, comme Courrier juste avant).

Le reste est effectivement des suppositions faites sur des informations partielles tiré d’un brain-storming en cours. Donc c’est pas fiable pour un sou. Perso je pari que ça sera un hybride tablette-phone (et pas juste un grand téléphone comme l’est le Note), mais ce n’est qu’une pièce lancée en l’air ^^

D’après Foley, ce ne sera en tout cas pas pour cette année, si ce projet abouti.
Src: https://www.zdnet.com/article/dont-expect-microsofts-andromeda-this-year-or-maybe-ever/



Le 02/07/2018 à 14h 32






CryoGen a écrit :

Avec la puissance des smartphones de nos jours, il est normal de vouloir ce genre d’utilisation, moi par exemple si je peux me balader avec mon smartphone, arriver à mon bureau, le brancher sur un dock et l’exploiter comme un PC, me rendre compte que je suis à la bourre pour le rendez-vous suivant <img data-src=" /> attraper mon smartphone et avoir tout avec moi… c’est plutôt pas mal.



Il faut juste que ce soit bien pensé, avec des appli qui s'adapte etc.






Sauf que c'est pas ça Andromeda. Le Continum n'a pas reçu un bon accueil, ni dans le grand public ni dans le professionnel, donc MS l'a enterré. Peut-être que ça sera dispo en parallèle, mais c'est pas ça qu'ils attendent pour sortir un engin, sinon ils auraient déjà refait un Lumia avec un SD950. Et se cracheraient probablement...     



Andromeda c’est un appareil qui fait tablette et téléphone, tout comme la surface pro fait tablette et PC. Ils visent juste l’autre coté du spectre des hybrides.



Tera 1000 : le supercalculateur le plus puissant d'Europe entre dans le « Top 15 »

Le 29/06/2018 à 15h 38

Dans le fond on est d’accord, mais ta présentation des choses est pour moi totalement à l’ouest et rend ton discours faux.



 &nbsp;       







fafaro a écrit :

impliquent éventuellement un gros travail pour adapter le code.




fafaro a écrit :

&nbsp;je devrais réécrire une bonne partie de mon code pour avoir des performances correctes.




  On est passé "d'éventuellement adapter" à "obligation pour un truc qui tourne" en quelques lignes ^^ C'est fou, non ?       





 Ouep, le cache entre un vieux Xéon et un Phi n'est pas le même. Ouep, ça peut impliquer des optimisations spécifiques (tu peux raisonnablement lancer un premier run sans), mais ça serait aussi le cas entre un vieux Xéon et un récent (car le cache a explosé en 10 ans). Et un coeur c'est un coeur, que t’ai 4 Xéons à 28 coeurs ou que t’ai 1 xéon + 1 Phi, dans tous les cas ton code il doit gérer une centaine de coeurs.       





 Donc non, la différence entre un Xéon et un Phi n'est pas comparable à la différence entre un Xéon et un GPU (= PCIe accelerator) ou un Power9 (= pas x86). Le Phi n'est pas un Xéon, mais il est dans la même cour, tout comme l'est l'EPYC. Est-ce qu'un cluster d'EPYC serait considéré comme spécialisé, lui aussi ? Pourtant ses NUMA demande aussi une bonne optimisation pour être exploité au max, tout comme le cache de ouf des Phi. Mais, ça reste des proco généralistes car x86 et en direct avec la RAM et le réseau.       
&nbsp;




fafaro a écrit :

Sinon le top500 a toujours du sens quand on regarde le haut du classement (et on ne regarde que le haut du classement quand on s’y intéresse), on n’y voit que des centres de calcul et des vraies supercalculateurs.




  Là encore tu te contredits :p Si y a que le TOP100 qui contient des HPC, et que les autres sont majoritairement des datacenters, c'est bien que le TOP500 n'a plus de sens. C'est le TOP100 (nombre arbitraire, j'ai pas tout feuilleté) qui en a, et ça risque de pas duréer, puisque comme l'auteur de l'article le disait (et c'est là que c'est funeste), si cette manie de LINPACKé tout et n'importe quoi sort de Chine et s'installe aux US, c'est mort. Les AWS, Azure et compagnie vont pourrir le TOP100 sans aucun problème.       





 Ça part en couille, et ça serait bien que ça soit patché avant que ce TOPxxx ait perdu tout son sens.


Le 28/06/2018 à 08h 25






AhLeBatord a écrit :

J’espere qu’ils ont obtenu une bonne promo car la technologie Xeon Phi est quasi-morte depuis fin 2017 https://www.top500.org/news/intel-dumps-knights-hill-future-of-xeon-phi-product-…


Sauf qu’il y a plus de Phi dans les nouveaux entrants au TOP500 que de puces IBM ^^ Ce n’est donc pas encore mort auprès des clients, même si oui, il n’y aura plus de nouvelles puces Phi (les xéons devant les rattraper petit à petit).



Le 27/06/2018 à 16h 15






33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :

Kestananafoutt si les processeurs sont généralistes ou hyper spécialisés,




    C'est un autre sujet ça déjà. Maintenant c'est plus le fait que ça soit généraliste qui pose débat, c'est son intérêt...         





   Je suis pas le mieux placé pour répondre, mais de tête je pense déjà à la rareté, et au prix, des mecs expérimenté sur ces archis. Et au cout pour y porter un prototype codé en x86 (car c'est ce que tout le monde a dans son bureau).         





   Après on peut aller loin comme ça, tu veux la météo de demain aussi ?         





   Sinon j'ai lu un article notant que le TOP500 des super-calculateurs (dont est issue cette brève) ne vaut plus rien, car pleins de boites chinoises se sont amusées à y mettre leur datacenter. Genre ils bloquent leur entreprise une heure pour lancer LINPACK, et voilà ils sont dedans. Sauf que comme les noeux sont reliés en simple Ethernet 10Gbps, ben ça risque pas de beaucoup servir pour de vrai calcul HPC (qui dépendent beaucoup plus de la mémoire vive globale, c'est à dire tous les nœuds cumulé via un réseau infiniband, que du processeur de chaque nœud). C'est à la fin de ça : https://www.servethehome.com/top500-june-2018-edition-new-systems-analysis/  
&nbsp;
Ça c'est intéressant. Mais vos délires sur "ouais mais non c'est pas généraliste", "et puis c'est quoi généraliste", "ça sert à rien le HPC" ou "papa comment on fait une bouteille de lait", faut arrêter les mecs, on se croirait en maternelle là.


Le 27/06/2018 à 15h 00






33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :

Et tout dépend de ce qu’on appelle généraliste…




A la différence des systèmes basés sur des GPU, les systèmes basé sur des Phi sont : x86, bootable, directement sur le bus mémoire (contrairement aux GPU qui sont derrière le PCIe).     



Maitenant, quelle différence il y a entre un Phi et un Core classique ? Ben à part quelques instructions différentes (l’AVX a évolué entre la sortie des Phi et les SkyLake, mais ça fait la même chose, faut juste adapter le code bas niveau qui les appels), perso je vois pas.

Après si vous connaissez d’autres différences concrètes, je vous écoute, mais là tout ce que je vois c’est des pinailleurs qui veulent absolument montrer que Atos a menti. Sauf que pour une fois, ils ont plutôt raison, et vous passez pour des idiots à vous acharner en disant n’importe quoi…



Le 27/06/2018 à 10h 15






fafaro a écrit :

Ça a beau être compatible x86, ce&nbsp; n’est pas utilisable efficacement sans recoder pour la plupart des applications. Donc je maintiens ce que j’écrivais : c’est pas follement généraliste.




  Techniquement t'es pas obligé d'adapter ton code, c'est pour ça qu'ils peuvent dire généraliste quand même.       





 Dans les faits, vaut mieux effectivement ajouter le framework Phi et modifier des bouts, mais si t'as un code parallélisé dès le départ tu n'as pas besoin de tout recoder. Mais ça vaut aussi si tu passes de vieux Xéon aux derniers Scalable, faut modifier des bouts pour l'AVX-512 par exemple. Mais rien de fondamentale.     



Contrairement à l’utilisation de GPU où là oui, tu refaits tout…



Le 27/06/2018 à 08h 59






33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :

Il n’en demeure pas moins que si tu n’utilises que les Xeon, tu passes largement en-dessous de la barre des 10 PetaFLOPS au lieu de 25…


Probablement même moins, l’architecture d’un HPC orienté GPU fait que les Xéon sont pas très efficients. Ils disposé comme “routeur”, pas comme unité de calcul. Je crois pas que quiconque ose lancer cette énorme machine avec un code qui laisse les GPU tourner à vide…

Ca serait akwa(rd).

Quoi ?

Ok, ça va, ça va, je sors…



Le 26/06/2018 à 17h 36






akwa a écrit :

Rien n’empêche de coder sans utiliser les gpu, juste en utilisant les xeons. Donc je vois toujours pas en quoi c’est pas généraliste.


Si t’utilise pas les GPU, tu passes en dessous en terme de puissance… Sérieusement, réfléchis une seconde avant de répondre <img data-src=" />



Le 26/06/2018 à 15h 15






akwa a écrit :

Pas d’accord : le Piz Daint est composé de xeons, épaulés par des gpu : je vois pas en quoi il est pas généraliste ?


Car faut coder avec des frameworks dédiés (CUDA…) et qu’il faut prendre en compte que les GPU sont derrière des bus qu’il faut pas utiliser (car trop lent tant qu’on a pas du gros PCIe 4).



Le 26/06/2018 à 15h 14






fafaro a écrit :

Il y a des Xeon Phi dans Tera 1000, c’est pas follement généraliste non plus.




  Les Phi sont compatibles x86 (et même bootable pour les derniers...), donc si, c'est plutôt vrai. Les Phi ne sont ni des GPU ni des FPGA, ils sont à ranger dans la même catégorie que les "Core".


Aux États-Unis, la Californie fait un pas vers la protection des données

Le 29/06/2018 à 12h 00






Zekka a écrit :

@Leum Oui et non, il me semble que chaque pays a le droit d’adapter ce règlement. Je ne connais pas bien le sujet, mais je suis 100% persuadé d’avoir lu quelque chose comme ça (peut-être même sur NextInpact).


Chaque pays doit transposer le RGPD dans son droit avant qu’il s’applique, mais ceci est obligatoire : sinon (je crois que c’est au delà de 2 ans après le vote au parlement européen) les gens peuvent porter plainte à la cours européenne de justice qui appliquera le RGPD a sa sauce.

Donc si, le RGPD s’applique bien partout dans l’UE, quand bien même des pays voudraient le refuser. Après chacun peut ajouter des choses lors de l’intégration au droit local, par contre tout rabotage peut là encore être contourné via un appel à la CJUE.



Google devient à son tour membre Platinum de la Linux Foundation

Le 28/06/2018 à 14h 07






Furanku a écrit :

Avec ces entrées de gros groupes qui certes participent à l’Open Source, mais dans un but purement mercantile (déposant parfois des brevets grâce aux travaux effectués dans l’Open Source), la Linux Foundation ne risque-t-elle pas de perdre son âme ? <img data-src=" />

Edit : bon en fait il y a déjà pas mal de gros groupes en son sein. Du coup je revois ma vision sur la fondation, que je pensais toute autre.


Hé ouais, c’est pas des libristes qui vivent d’amour du prochain. Y a des gros sous dans cette affaire (mais aussi un résultat admirable, attention), et ça date pas d’hier. Alors un million de plus ou de moins…



Premier rapport du NTSB sur l'accident mortel d'une Model S avec batteries en feu

Le 28/06/2018 à 13h 52

~200km/h là ou c’est limité à 50, normal. Encore, 200Km/h sur autoroute, c’est super dangereux (0 marge de sécurité) mais ça peut éventuellement passer (la preuve en Allemagne) mais sur une petite route en zone urbaine…

Comment quelqu’un d’assez débile pour faire ça a réussi à atteindre l’age de 18 ans ? C’est ça la vrai question <img data-src=" />


Soldes d'été 2018 : le récap' des bons plans, édition spéciale troisième démarque

Le 27/06/2018 à 15h 29






David_L a écrit :

Après pour des filtres complémentaires c’est une bonne idée, mais je ne peux pas en dire plus sur le sujet pour le moment ;)


Filtres confirmés sur la v7 ! <img data-src=" />



Le 27/06/2018 à 15h 03






David_L a écrit :

Les bons plans ne contiennent pas que des soldes, dans tous les cas notre position sur les ODR a toujours été la même : cela peut être des offres intéressantes, mais on&nbsp; est conscients que certains n’aiment pas, pour des motifs qui sont tout à fait justifiés.

Donc on indique systématiquement et de manière claire quand une ODR fait partie d’une offre. Chacun est ensuite libre de faire ses choix en la matière <img data-src=" />


C’est super de donner le choix, mais là honnêtement la page est illisible ^^ Elle est beaucoup trop longue !

Si vous proposez un petit module intégré pour filtrer les offres (un peu comme sur un site d’achat), là moi je dis banco ! Genre ODR ou pas, un % de réduction minimum, etc.

Je suis sûr que ça ferait une bonne offre de stage pour cet été… ;)



Le 27/06/2018 à 14h 31






Bamaury a écrit :

bref, merci à la team bon plans de retirer ces opérations


+1 les ODR n’ont rien à faire ici. Ce n’est ni des bonnes affaires ni des soldes.



Shuttle annonce son DH02U(5) « Slim » avec GeForce GTX 1050 et quatre HDMI 2.0b

Le 27/06/2018 à 10h 49

Edit: mal lû, j’ai rien dit :p


Bandes-annonces : Budapest, trois Vieux Fourneaux en vadrouille, Creed II et l'IA sadique Tau

Le 26/06/2018 à 19h 24






iolivier a écrit :

C’est&nbsp; dommage que Netflix sorte Tau un 29 juin, alors que le “Tau Day” est le 28…


Décalage horaire non ?



SFR veut réutiliser les conduites du câble pour déployer la fibre

Le 26/06/2018 à 18h 01






ProFesseur Onizuka a écrit :

La concurrence c’est le bien… seulement quant c’est nous qui décidons qui fait quoi <img data-src=" />


Ce câble a été posé sur des fonds privé par l’entreprise de l’époque non ? Du coup je vois même pas pourquoi SFR aurait besoin de demander la permission. Faut juste que l’amplificateur de cage d’escalier / rue (qui fait actuellement fibre -&gt; cable) soit ouvert aux concurrents pour respecter le partage horizontal obligatoire.

Ou alors SFR voudrait garder son déploiement horizontal rien que pour lui pendant que celui des autres doit lui être ouvert ? <img data-src=" />



Les travaux de la NASA pour réduire le bruit d'un avion à l'atterrissage

Le 26/06/2018 à 17h 21






Zerdligham a écrit :

Dans mon expérience de passager (j’habite pas près d’un aéroport), dans les ~5 dernières minutes, les moteurs font relativement peu de bruit, par contre on entend très bien les roues et les volets (quand ils sont sortis, j’avoue ne pas trop comprendre la logique des fois ils sortent les deux très tôt, des fois juste avant de se poser).


Euh, le bruit intérieur n’est pas trop le sujet, surtout pour des bruits très ponctuels… Ca gène pas donc osef.



Le 26/06/2018 à 15h 43






IT_Delcroix a écrit :

Il serait judicieux de commencer à utiliser l’électrique pour les phases de décollage et d’atterrissage. Je ne sais pas si c’est jouable mais cela permettrai de mettre le pieds à l’étrier 👍




C'est trop lourd d'avoir une double motorisation... et l'électrique a une densité énergétique trop faible pour l'aviation commerciale de bout en bout, avec pour l'instant aucune solution de prévu, même à 10 ans.


Le 26/06/2018 à 15h 42






Bel Iblis a écrit :

&nbsp;
Un ami qui bosse chez Airbus en acoustique: mais je parlait que de l’atterrissage. A ce moment les moteurs sont en bas régime et l’avion est particulièrement prêt du sol (en décollage la trajectoire est beaucoup plus raide).


Le truc c’est que le bruit vraiment gênant, c’est aux environ de l’aéroport (donc approche/ascension). Le bruit sur la piste est pas très gênante, la première habitation est loin, mais quand l’avion passe au dessus de chez toi, ouais, il fait grave chier. Et à ce moment là, c’est surtout les moteurs qui font du bruit (j’avancerais pas de chiffre, mais on est certainement loin au dessus de 50%, surtout pendant l’ascension où t’es proche de la poussée maximale).

Donc améliorer les trains ou l’aérodynamisme, c’est cool, mais ça changera rien pour les plus touchés : les riverains.



Accident mortel avec un véhicule autonome Uber : selon la police, la conductrice regardait The Voice

Le 25/06/2018 à 16h 10






Eldusole a écrit :

Faut quand même rappeler qu’il s’agit d’une collision avec un piéton qui:



  - traverse une 4 voies         
- non éclairée
- en pleine nuit
- avec des vêtements sombres
- sous l'effet de stupéfiant.





  Avec ou sans voiture autonome, si je fais la même chose, j'ai une chance quasi-certaine de finir en crêpe !        





  Oui, la conductrice est responsable. C'est la loi. Mais je trouve qu'on fait tout un flan pour un fait divers dramatique qui se produit plus de 700 fois par jours dans le monde (nombre de piéton tué par un véhicule).






 Le problème c'est que la voiture a vu les sacs accroché au vélo 6 secondes à l'avance (ce qui aurait pu déclencher une alerte), puis a reconnu le vélo lui-même 3,5 sec avant l'impact. Le contexte que tu détails est justement tout à l'avantage d'une voiture autonome, car :       
&nbsp;- elle voit mieux de nuit mal éclairé que de jour (LIDAR moins ébloui)
&nbsp;- elle voit mieux en terrain dégagé (LIDAR qui voit plus loin que l'oeil humain tant qu'il n'y a pas de distorsion comme un brouillard)
&nbsp;- elle cherche tous objets et non pas spécifiquement les personnes (hors si la personne était peu visible car en noir, le vélo était lui bien visible)
&nbsp;- elle ne présume pas d'un réaction normal (elle calcul les risques de collision de manière plus large et exhaustive qu'un être humain).





 Ce n'est donc pas un fait divers banale, c'est un échec complet pour Uber qui n'a aucune circonstance atténuante (ça aurait été dans le brouillard par exemple, j'aurais rien dit). Cette personne n'aurait pas dû être blessé si la voiture avait été conçu en respectant les règle de sécurité élémentaire. Hors ces règles ont été volontairement désactivé pour accélérer les tests...


Le 25/06/2018 à 09h 17






eglyn a écrit :

Ils pourront toujours justifier que la voiture est justement une voiture de tests, toutes les fonctionnalités n’étant pas au point, d’où la présence du conducteur indispensable (et qui ne matte pas the Voice du coup <img data-src=" />)




 Ils n'en ont pas besoin. Même dans des appareil commerciaux ayant fini leur test, si il y a un humain à la barre à la fin, c'est toujours lui le responsable là bas, quoi qu'il arrive. L'industrie aérienne est un bonne exemple de ça, Boeing et DC ont vendu un packet d'appareil conceptuellement défectueux (statistiquement, une défaillance irrécupérable par le pilote devaient forcément se produire avant la fin de vie prévu de l'engin), et n'ont pas été plus inquiété que ça par la justice. C'est les pilotes qui sont responsables légalement, tout le temps, même quand le problème vient de la conception.     



Et même si ici la pilote n’aurait pas pu éviter l’incident (trop faible visibilité, aucune information du système affiché), le fait est que la voiture répondait toujours au volant, donc c’est réglé, elle sera déclaré première responsable (The Voice ou pas d’ailleurs). Après, les fautes de Uber seront ajouté comme cause ayant concourru à l’accident, mais ça, médiatiquement et juridiquement parlant, ça ne vaut rien.



Failles Spectre : OpenBSD va désactiver par défaut l'Hyper-Threading des CPU Intel

Le 22/06/2018 à 00h 47






neojack a écrit :

On a des infos sur la faille ?


Oui, c’est la faille qu’Intel assume de laisser ouverte par défaut car ils savent pas la fermer en laissant le HT. C’est vieux de quelques semaines.



Le 22/06/2018 à 00h 43






gugus69 a écrit :

Alors à quoi cela servirai un test “Xeon E5-2650v2 & cxgbe, HT-disabled & 16rxq” ? car comme HT est désactivé (HT-disabled), il n’y a que 8 threads de disponible en tout, donc pourquoi demander au système d’en utiliser 16 ? Qu’est-ce que cela prouverai ?


Pour la même raison qu’il a fait du 8 threads avec HT d’activé (et donc 16 logical core) ? Y a problème avec cette appliance, le but de ces mesures c’est de le comprendre. Il ne s’agit pas d’un test d’efficacité du HT, car là on est dans un cas négatif, pas nul.



Le 21/06/2018 à 22h 13






gugus69 a écrit :

Dans ce document, page 14: +24% une fois le HT désactivé (use case: routeur/firewall).


La seul chose que le test prouve, c’est qu’il y a un bug sur cette appliance réseau (ce qui est démontré page 15, où l’auteur suppose un problème de thread locking). Mais il se garde bien de tester l’HT avec suffisamment de thread (le proc testé a 8 coeurs, et le teste se limite à… 8 threads !) pour en tester l’efficassité (il manque la ligne “Xeon E5-2650v2 & cxgbe, HT-disabled & 16rxq: inet4 packets-per-second” pour ça).

Ça vaut comme rapport de bug, pas inefficacité de l’HT. Tu es le type même de personne qu’on accuse de troller. Et pas forcément par méchanceté, c’est juste que t’as pas bien creuser le truc et t’as fait une mauvaise interprétation d’un test (ou que t’as repris une conclusion erroné).



Le 21/06/2018 à 21h 59






Charly32 a écrit :

Tu veux dire que le gain provienne seulement de l’augmentation de la fréquence du CPU et non de l’accroissement de bande passante ?




Je veux dire que la fréquence du CPU c'est (fréquence du bus x multiplieur), qui est modifiable sur les série K ou X d'Intel/AMD. Un OC de la fréquence du bus touche aussi la fréquence mémoire, ce qui augmente la bande passante (sauf équilibrage avec son propre multiplieur). L'HT ne touche que ce qui est dans le CPU, si tu touche au CPU ET à la RAM ce n'est plus comparable.    



L’hyper-threading est une technologie qui a eu une jeunesse tumultueuse, avec des pertes de perf voir des instabilités. Il est important de souligner que c’est terminé, et qu’elle est aujourdh’ui un vrai gain pour le CPU. Bien sur elle ne sert que dans des cas CPU-bound, mais c’est bien le principe même… Il ne faut pas plus cracher dessus que sur le turbo boost (surfréquençage à la volé de certains coeurs) ou sur les gain de fréquences/architectures des nouvelles versions.

Si la seule solution qu’Intel propose pour corriger les problèmes de sécu c’est de désactiver l’HT plutot que de proposer un vrai patch, on se fait enflé. Et ta position ne fait que les conforter dans cette économie de moyens, en plus d’entretenir un vieux troll (“le HT c’est de la merde”, chose que les fanboys d’AMD ont longtemps propagé car AMD a mit des années à proposer sa version).



Le 21/06/2018 à 12h 18






brice.wernet a écrit :

https://www.phoronix.com/scan.php?page=article&item=intel-ht-2018&num=2

Un seul cas, et le HT n’est pas à la ramasse. Dans le reste des cas, +20/+30% grâce au HT, c’est loin d’être négligeable. Jamais de +100%.

&nbsp;
Yep, on voit d’ailleurs que dans ce cas de mauvais HT, il y a un gros problème de variances (10x plus importante que sans HT, ou quand le HT fonctionne bien). On est clairement dans un cas où le logiciel (l’encodeur de vidéo made in google) bug complètement avec ça, et part en cacahuète.

C’est tout à fait corrigeable si Google le veut, mais comme ils n’utilisent pas trop de x86 pour l’encodage chez eux&nbsp; et optimise leurs softs pour de l’ARM, c’est pas gagné ^^

C’est tout le problème des benchmarks, est-ce que les softs utilisé sont optimisés pour l’architecture testé ?



Le 21/06/2018 à 11h 55






Eldusole a écrit :

Dans mon cas pro (calcul scientifique massivement parallèle avec MPI), on désactive volontairement le SMT en n’utilisant que le nombre de cœurs physique disponible. L’impact de l’HT sur nos temps de calcul s’avère au mieux nul, sinon négatif.




  Oui mais là on est d'accord que le problème c'est la saturation du MPI du fait de la taille du système, pas le fait que l'HT n'apporte rien sur un serveur, non ? Si vous pouviez augmenter la bande passante et gérer plus d'unité de calcul simultané (ou plutôt diminuer les pertes), activer l'HT vous serait profitable.       





 On est dans un cas limite où chaque nouvelle unité de calcul vous coute cher. Le HPC a ses contraintes qui lui sont propres, on est bien d'accord, c'est d'ailleurs pour ça que ses architectures s'éloignent grandement des PCs classiques (rush vers le PCI 4.0, etc.).


Le 21/06/2018 à 11h 48






Charly32 a écrit :

Et c’est moi le troll après <img data-src=" />


Bah ouais. Et pour répondre à ton édit, même si ton usage c’est les jeux, si tu ne perd rien à désactiver le HT c’est probablement que ton CPU est surdimensionné par rapport au reste (GPU, fréquence de la RAM, etc.) Ou que le jeu fait bugué l’HT (qui du coup se désactive de lui-même afin de ne pas nuire aux perfs), mais ça devient rare.

Dans 99% des cas, si ton jeu est gourmand en CPU (c’est à dire qu’il profiterait d’une augmentation de la fréquence par exemple via OC de son multiplicateur, et non du bus !) alors le HT l’aidera. Y a pas de secret, tous les composants d’un jeu (rendu 3D, son, IA…) bénéficie de l’HT (test donc sur photoshop avec une modif couteuse en calcul, sur blender avec un rendu 3D, sur Audacity avec un filtre, ou sur n’importe quel soft de solving).

Trouve moi un vrai test d’usage CPU qui ne profite pas de l’HT, je t’en pris…



Le 21/06/2018 à 11h 33






Charly32 a écrit :

Cf. Ce test : lightroom 6.7 et la totalité des jeux vidéos ne montrent aucun gain significatif avec SMT. x265 est très limité chez Intel.


Allons, allons. C’est pas des tests de HT ça. Un peu de sérieux. C’est mignon un lightroom limité par la RAM et les jeux limités par le GPU, mais faut arrêter de se foutre du monde à un moment.

Le benchmarking ça se fait pas avec un tableau montrant une unique valeur rebasé hein.



Orange verrait bien un retour à trois opérateurs

Le 21/06/2018 à 12h 00

Moi je note qu’ils ont pu déployer la 4G malgré l’arrivé de Free. D’ailleurs j’ai l’impression que son déploiement a été plus rapide que la 3G.

Je suis pas convaincu par le monsieur, non seulement il n’apporte aucune preuve mais les faits semblent lui donner tort :p