votre avatar

jcdr

est avec nous depuis le 22 novembre 2009 ❤️

56 commentaires

Le 08/03/2018 à 15h 12







Philou66 a écrit :



Non, justement, beaucoup de radio-réveils et autres horloges alimentées sur secteurs utilisent la fréquence du réseau pour se synchroniser. La précision sur le long terme est bien meilleure qu’un quartz, car le réseau électrique s’engage a avoir une fréquence moyenne de pile 50Hz sur le long terme. Mais d’habitude, le long terme c’est moins que 1 mois ;-)

 





Normalement la correction est faite dès que l’écart est supérieur à 20 secondes. Voir les explications:



https://www.swissgrid.ch/swissgrid/fr/home/experts/topics/frequency.html


Le 08/03/2018 à 10h 09

L’écart du temps synchrone du réseau électrique européen se calcule par comparaison avec l’heure mondiale (heure UTC), qui est définie sur la base d’horloges atomiques ultraprécises.



Cet écart du temps synchrone est compensé en permanence. S’il est de plus de 20 secondes, la fréquence est corrigée dans le réseau. Pour équilibrer l’écart du temps, la fréquence habituelle de 50 Hz (Europe) est modifiée comme suit:






Le 07/03/2018 à 15h 19







fred42 a écrit :



On en a la preuve avec les conneries du Kosovo ! 6 minutes de dérives en 2 mois environ, c’est génial !



 On ne demande pas une précision de la seconde sur une année dans un radio réveil, mais on ne veut pas de 6 minutes de dérive en 2 mois.       






 Plus sérieusement, la précision d'un quartz est de 20 ppm à 25 °C, un peu plus si la température varie.       






 Mais la précision du réseau électrique est de la centaine de ppm, donc plus importante, et cela quand la gestion du réseau est correcte, ce qui n'est plus le cas depuis ces histoires du Kosovo.       






 On connaît l'imprécision maximale des quartz, mais pas celle du réseau électrique.








Vous n'avez pas compris l'avertissement: la stabilité d'une horloge dépend de la durée de la mesure ! Les précisons que vous comparez ne sont pas mesurées avec la même durée (1 seconde, 2 mois) et c'est ce qui fait toute la différence ! Une bonne introduction à ce problème est expliqué dans ce document     





http://freqelec.com/oscillators/understnding_osc_specs.pdf

 

La page 6 illustre 4 très visuellement la différence entre précision et stabilité. La page 13 montre les performances en stabilité d’une large gamme d’horloges atomiques et d’un quartz haute performance “Hi-Per Qz” qui part complètement dans le décor pour des durées de mesure de plus d’une heure.Un quartz sans asservissement, même avec une spécification de 20 ppm et strictement maintenu à 25°C va dévier sur une année jusqu’à (201e-6) (606024*365) = 630.72 secondes, sot plus de 10 minutes ! Un réseau électrique asservi à une horloge atomique peut n’avoir qu’une précision de 100 ppm pour une durée de mesure de l’ordre de la seconde, mais va avoir une stabilité 1e-12, soit 0.000001 ppm.  pour une durée de mesure d’une année, ce qui correspond à une précision de 32 millisecondes. Et une précision de 32ms ça n’a rien à voir avec les 10 minutes d’un quartz !!!




 Pour simplifier: un quartz non asservi correspond à la première image de la page 6 du document: "Precise but no accurate, alors que le réseau électrique correspond à la 3ème image de la page 6 du document: "Accrurate but not precise". L'instabilité du réseau électrique est provoquée par l'ajustement en continu de sa fréquence, directement liée à l'équilibre entre la production et la consommation. Le but de l'asservissement quotidien est d'ajuster ce qui correspond à la constellation de points sur l'image pour que sa moyenne soit parfaitement centré sur celle de l'horloge atomique de référence, ce dont qu'un quartz sans asservissement est totalement incapable, y compris pour la compensation de la vitesse de la rotation terrestre, et sans compter son vieillissement      






Réponse au quiz: calculer une réponse exacte à ce problème est impossible car on ne peut pas prévoir à plus de 6 mois les variations de la vitesse de rotation terrestre.

Le 07/03/2018 à 13h 40







fred42 a écrit :



Par contre, ceux qui sont à fouetter , sont les concepteurs qui ont trouvé intelligent de supprimer le quartz qui permet d’avoir une bonne précision pour maintenir une heure fiable et qui s’appuie sur la fréquence du réseau électrique qui est moins précise même en l’absence de ce qu’indique l’article. Tout cela pour faire des économies de bout de chandelle !





Contrairement à ce que vous avancez, un simple quartz est incapable de remplacer la stabilité du réseau électrique sur les longues durées de mesure, et il est aussi incapable de tenir compte des variation de la rotation terrestre.

 

Attention: la stabilité d’une horloge dépend de la durée de la mesure !



 &nbspfr.wikipedia.org Wikipedia 

Une horloge à quartz a une stabilité en gros inversement proportionnelle à la durée de mesure:  elle fournit un signal monotonique très pur mais qui varie fortement avec la température et l’âge. Impossible d’avoir une précision de l’ordre de la seconde sur une année sans l’asservir à un système de compensation.



Une horloge atomique est extrêmement stable sur les longues durée de mesure, mais pas aussi stable que le quartz pour les petites durée de mesure: Le signal monotonique est généré indirectement par un asservissement interne très complexe qui oscille en continue autour d’une valeur moyenne. Généralement la mesure atomique est utilisée pour asservir un quartz afin de stabiliser l’horloge pour les petites durées de mesure. La stabilité à long terme d’une horloge atomique dépend très largement de son coût. J’en ai une au Rubidium qui dévie d’ une seconde par 80 années que j’ai acheté pour ~200 USD sur Ebay.  La NIST-F2 dévie d’une seconde par 300 millions d’année pour un coût en million de USD.



Une horloge de constellation de satellite (GPS, Galiléo, Glonass, Baïdu) est comparable à une horloge atomique de bonne qualité (elles sont dans les satellites)  mais avec un déficit en stabilité caractéristique pour les durées de mesure inférieure aux orbites des satellites. Ce type d’horloge asservit toujours un quartz pour épurer le signal monotonique.



Une horloge de réseau électrique est, comme une horloge de constellation de satellite, comparable à une horloge atomique de bonne qualité qui lui sert de référence, mais avec un déficit en stabilité caractéristique pour les durées de mesure inférieures à l’asservissement normalement quotidien (c’est là que ça n’a pas fonctionné). Un avantage spécifique d’une horloge de réseau électrique est qu’elle est d’une très grande simplicité de mise en oeuvre pour des stabilités à long terme impossible avec un quartz.



Les variations de la rotation terrestre sont prisent en compte dans la distribution des mesures des horloges atomique, y compris par les constellations de satellite, les réseaux électriques, et les réseau informatiques, mais pas par les quartz sans asservissement.



Mesurer le temps est une discipline des plus complexe. Quiz: combien exactement de secondes séparent midi pile de cette date à midi pile à la même date dans 4 années ?


Le 06/03/2018 à 10h 57







anagrys a écrit :



[…] une fois encore tout le crédit en revient exclusivement aux agents étrangers.





Certainement pas tout, et certainement pas exclusivement. Cela n’enlève rien à la réalité de certaines actions:



 arte.tv Arte



Voici quelques points principalement abordés dans le film de Paul Moreira :





  • L’interview de Margarita Simonian la directrice de RT et Sputnik: “la vérité, ou presque”.

  • Les attaques contre LREM détaillées par Mounir Mahjoubi, responsable de la campagne numérique d’E. Macron: “un état d’esprit”.

  • L’investigation sur Maria Katasonowa: “Poutine, Marine, Trump”.

  • L’investigation sur Konstantin Rykov,: “Le général d’une armée qui compte beaucoup de bases”.

  • La réunion des politiciens Français pro-Russe.

  • Les remerciements filmés de Marine Le Pen à Maria Katasonowa: M.K. “nous faisons tout ce que nous pouvons pour vous aider, sur internet et sur les réseau sociaux”. M.L.P “Mais je sais, je regarde ça de près, … cette contribution à notre combat commun.”

  • Les 2 rendez-vous secrets entre Putine et Marine Le Pen, et de nombreux détails sur le soutient Russe au FN.

  • La tentative d’interview de Olga Zinovieva: “Le traité de guerre médiatique.”

  • La propagande Russe en Allemagne.




Le 23/02/2018 à 14h 52







Groupetto a écrit :



J’aurais aimé qu’ils osent appeler ça Skynet, parce que pour le coup c’est exactement ce que c’est…



Elon Musk, ce dégonflé <img data-src=" />





Il ne peut pas, les britanniques on déjà des satellites appelés Skynet:&nbsp;

fr.wikipedia.org Wikipedia


Le 08/01/2018 à 18h 46





Pour la petite histoire, il y a de plus en plus de spécialistes qui soupçonnent ouvertement Intel d’avoir volontairement lié Spectre à Meltdown pour tenter d’en atténuer les conséquences médiatiques. Dernier en date: le leader en OpenBSD&nbsphttps://www.itwire.com/security/81338-handling-of-cpu-bug-disclosure-incredibly-…

Le 06/01/2018 à 13h 06







psikobare a écrit :



Spectre permet bien de lire toute la mémoire en espace utilisateur, même d’autres processus



https://isc.sans.edu/forums/diary/Meltdown+and+Spectre+clearing+up+the+confusion…





On est d’accord: toute la mémoire adressable d’un autre processus. Cela inclus les données du noyau volontairement mappées par le noyau dans l’espace d’adresse du processus victime, mais contrairement à Meltdown, par l’entier de la mémoire du noyau. Cela dit la confusion existe dans le papier Spectre lui-même du fait que le code d’exemple ne démontre pas la possibilité de lire la mémoire d’un autre processus. Je soupçonne que Spectre soit plus grave chez Intel que chez AMD. On sera certainement fixé dans pas très longtemps.


Le 05/01/2018 à 23h 48







psikobare a écrit :



Concernant Spectre (la fameuse vulnérabilité qui permettrait d’échaper les sandbox au point de lire toute la mémoire avec un exploit js dans un navigateur), tout le monde est concerné,&nbsp;&nbsp;



&nbsp;

Non, Spectre (contrairement à Meltdown) ne permet pas de lire toute la mémoire: il est limité à la mémoire adressable par l’application victime.


Le 06/01/2018 à 14h 41







Gearbolt a écrit :



pourquoi se fatiguer à attaquer des serveurs quand on peu avoir la main sur un Nexus 7000 par exemple ?





Parce que pour presque rien vous pouvez acheter un service vous permettant de faire fonctionner votre propre application sur un serveur qui offre le même service à d’autres utilisateurs, et qu’ainsi, avec Meltdown, vous pouvez facilement accéder aux données des autres utilisateurs.



Avoir accès à un compte sur un Nexus 7000 me semble largement plus compliqué…

&nbsp;


Le 05/01/2018 à 21h 40







Gilbert_Gosseyn a écrit :



AMD n’est pas dans le déni. Ils indiquent :




  • concernés par Spectre sur la première révision de l’architecture Zen et à priori avoir corrigé sur la seconde révision (Threadripper ?)





    Tous le processeurs x86 de AMD depuis probablement le K6 sont affectés par Spectre.&nbsp; J’ai vérifié Spectre sur un&nbsp;AMD Athlon 64 X2 4600 sans même le recompiler depuis un Ryzen 1600X, et il fonctionne aussi sur les APU tels que le A10-5800K mais après modification du&nbsp;CACHE_HIT_THRESHOLD à 100.



    Les processeurs&nbsp;Threadripper utilisent exactement la même architecture Zen que les processeurs Ryzen (et que les processeurs EPYC), il n’y donc aucune possibilité pour qu’ils soient différent à ce niveau.&nbsp;



    D’où tenez-vous l’information que Spectre serait corrigé “sur la seconde révision” ? Rien vu dans ce sens pour ma part.


Le 05/01/2018 à 19h 39







Bejarid a écrit :



AMD est dans le déni, et ARM on sait pas trop…&nbsp;





AMD:&nbsphttps://www.amd.com/en/corporate/speculative-execution

ARM:&nbsphttps://developer.arm.com/support/security-update



Actuellement c’est plutôt Intel qui est dans le déni en tentant systématiquement de mélanger Metldown et Spectre dans leurs communications, contrairement à AMD et ARM pour lesquels chaque variantes sont très clairement analysées séparément. Ils ont merdé grave chez Intel en permettant Meltdown (variante 3) si facilement et maintenant ils tentent de faire croire que les autres ont fait aussi pire qu’eux. C’est tellement cynique que je soupçonne Intel d’avoir recherché à tout prix d’inclure Spectre en même temps que Meltdown pour semer la confusion. Les remerciements dans le papier de Spectre laissent largement la place à cette interprétation:



“9 Acknowledgments



This work partially overlaps with independent work byGoogle Project Zero.&nbsp; We would like to thank Intel for their professional han-dling of this issue through communicating a clear time-line and connecting all involved researchers.”



Moi je comprends que c’est Intel qui a décidé de lier ensemble les communications de Meltdown et de Spectre.&nbsp; La raison semble évidente dans leurs communications: pouvoir dire que les autres ont aussi des bugs en ne disant pas qu’ils ne sont pas aussi grave. J’espère me tromper, mais quand on découvre en plus que le CEO de Intel a initié après le notification de Meltdown la procédure de vente de toutes les actions d’Intel qu’il pouvaient légalement vendre, je n’ai plus de doute sur son étique: il s’est fait environ 11 millions en profitant d’un méga bug dans les produits de sa société et communique que les autres ont le même problème. La réalité est peut-être qui tente ainsi d’éviter un délit d’initié.


Le 05/01/2018 à 18h 11







boogieplayer a écrit :



Et les soft en général non ? On peut imaginer des attaques via un soft de conversion de mp3 sur un pc qui en profite pour “voler des données” dans cette partie de ma mémoire ?





Oui le problème démontré par Spectre est général pour toutes les applications qui autorise l’exécution d’un code arbitraire.



Cela dit pas besoin de Spectre pour ajouter un voleur de donnée dans une application, c’est pas ce qui manque sur Google Play…


Le 05/01/2018 à 17h 32







yl a écrit :



J’ai un peu de mal à voir pourquoi dans une exécution non spéculative il n’y a pas de problème de rapidité de dispo de ces infos. Et s’il y a un problème auquel je n’ai pas pensé, un buffer intermédiaire pour les données résultant de ces load spéculatifs afin qu’ils n’aillent en cache qu’après check des permissions au retrait… aurait évité à Intel se se faire insérer, certes au prix d’un peu de surface de silicium…&nbsp;





Dans une architecture à exécution non spéculative le “retrait” (si toutefois ça encore en sens) d’une instruction est faite avant de commencer d’exécuter une instruction suivante, donc c’est horriblement lent, mais du coup les informations de sécurité sont disponible à temps. Il faut bien comprendre que du point de vue du respect de l’architecture du set d’instruction, la spéculation ne concerne que les instructions *suivant” celle qui est retiré. La confusion vient certainement du fait que dans le langage courant on parle de vitesse d’exécution alors que dans les faits ce qui compte c’est la vitesse de retrait des instructions. Sans spéculation, pas de pipeline, pas de multiple unités d’exécution en parallèle, et donc pas de performance, mais pas de problème de sécurité additionnels non plus…



Le buffer dont vous parlez est justement la séparation en différents contextes dans les mémoires caches dont j’ai fait allusion. Le problème de sécurité n’est cependant pas lors du chargement spéculatif causé par le code victime dans un contexte de sécurité donné (à moins de détruire les performances), mais lors du chargement effectué très intelligemment par le code attaquant dans un&nbsp; contexte de sécurité différent pour tester si la donnée est déjà en cache.&nbsp; Pour parler autrement, le fetch (et donc le cache) n’a pas la possibilité de savoir si l’instruction sera autorisée à être retirée plus tard, par contre le cache peut être conçus pour refuser de livrer rapidement une donnée à un contexte de sécurité différent de celui qui a mis en place la donnée dans le cache auparavant.&nbsp;



SI vous comprenez ça, vous comprenez pourquoi le fait que le code d’exemple de Spectre fonctionne sur les processeurs AMD mais révèle plus un problème de sécurité logiciel qu’un problème de sécurité matériel : le code lit des données qui se trouvent dans son propre contexte. La lecture est faite via un canal indirecte très subtile, mais le résultat net est qu’il ne fait rien d’autre qu’afficher des données qu’il peut très légitimement accéder directement en une seule ligne. Il n’y a donc pas de problème de sécurité au niveau matériel, mais il existe dans le cas d’un code qui dans le même contexte maintient des informations sensible et qui permet l’exécution d’un autre code. Le cas typique est celui du navigateur Web qui maintient des mots de passe et qui permet l’exécution de code Javascript. Mais là le problème n’est pas matériel, mais bien logiciel: il faut que les navigateurs évoluent pour séparer les contextes.


Le 05/01/2018 à 15h 46







yl a écrit :



&nbsp;




&nbsp;Il ne pousse pas le bouchon trop loin: Avant d'expérimenter, personne ne savait que les checks vs permissions MMU n'étaient pas faits avant les accès mémoire en exécution spéculative afin de simplifier l'architecture et de gagner en perf... aux dépens de la sécurité si un jour qqun arrivait à récupérer dans le cache ce qui n'aurait jamais dû pouvoir y aller!







Il était parfaitement connu que les exécutions spéculatives (et par extension les exécutions dans le désordre) sont vérifiées à leur retrait puisque c’est la base même de architectures modernes. La littérature sur le sujet est abondante, et le problème n’est pas à ce niveau car les informations de sécurité ne sont pas disponibles assez rapidement pour les unités d’exécution. Le problème se situe au niveau des caches qui n’ont pas évoluées pour séparer les contextes de sécurité: la mise en cache dans un contexte ne doit pas profiter à un autre contexte (sauf si explicitement autorisé). Il semble que AMD a correctement implémenté cette séparation entre les contexte utilisateur / noyau. Il reste à implémenter la même chose pour les contextes de sécurité définit par la gestion mémoire.


Le 05/01/2018 à 14h 59







yl a écrit :



&nbsp;Il ne pousse pas le bouchon trop loin: Avant d’expérimenter, personne ne savait que les checks vs permissions MMU n’étaient pas faits avant les accès mémoire en exécution spéculative afin de simplifier l’architecture et de gagner en perf… aux dépens de la sécurité si un jour qqun arrivait à récupérer dans le cache ce qui n’aurait jamais dû pouvoir y aller!



Le cauchemard, c’est la variante qui exploite cela en combinaison avec la prédiction de branchement dynamique cumulé au fait que chez Intel cette dernière n’est pas désactivable (sur d’autres architectures, c’est désactivé au démarrage et il faut activer cela explicitement).



Là, ca veut dire devoir recompiler tout applicatif ayant des boucles de lecture mémoire (que l’exploit localise pour les détourner et, après avoir pollué les stats gérant la prédiction de branchement, pouvoir lire hors bornes) afin de placer des instructions de memory barrier qui expérimentalement (l’architecture ne le garanti pas explicitement =&gt; pas sûr que toutes les variantes de processeur soient couvertes) contrarient cette technique (mais pour le futur…).



J’imagine déjà, au delà de la contrainte de devoir recompiler (après MAJ des chaines de compil) tout applicatif (surtout réseau), le cas de tous ces softs legacy/métier dont on a paumé les sources depuis des lustres! Ou de certains qui ne compileront plus sans modifications plus ou moins lourdes avec les versions actuelles!



Chez Intel, on présume l’utilisateur con. Tout le bring-up initial est fait via des blobs binaires qui évitent de devoir le documenter précisément et on ne peut explicitement désactiver les différentes optimisations matérielles apparues ces 15 dernières années selon son cas d’usage ou le contexte. Forcément cela agace quand ils jouent en prime les VW du processeur: Tricher sur les check imposés par l’architecture, pour rendre plus simples et performants leurs processeurs, en pensant que personne n’arrivera jamais à récupérer les infos en exploitant la micro-architecture habilement! Perdu…









&nbsp;


Le 20/12/2017 à 19h 05

Toujours pas de support utilisable de mDNS… Bientôt n’importe quel système embarqué à moins de 2$ sait faire du mDNS sans le moindre problème, mais après plus d’une décennie de développement ça ne semble pas encore à la portée de Microsoft…&nbsp;&nbsp;

Le 08/05/2017 à 14h 57

Le fait d’élire un président avec trop de pouvoir est un problème quelque soit le scrutin choisi, car il ne peux pas représenter toutes les orientations politiques de la population. Il faut plusieurs personnes, diversifiées, à la tête de l’état pour éviter le schéma majorité contre opposition. Travailler ensemble à la recherche de compromis est la seule solution pour éviter d’amplifier les conflits.



En remplaçant le poste de président tout-puissant par un collège de ministres qui ne peuvent faire que de l’exécutif, et en obligeant l’acceptation par le peuple des modifications législatives proposées par le parlement, là il y aura de gros changements..

Le 08/05/2017 à 11h 23







vida18 a écrit :



Je faisais allusion à cette article.





Très bon article du reste qui explique bien pourquoi dans un système fédéral, il faut une balance entre la population et les cantons. La richesse du système politique Suisse, permet de légiférer au niveau cantonal des sujets qui ne trouvent pas de solutions au niveau fédéral. C’est un gros avantage, qui fabrique de la diversité, et donc des expériences différentes sur lesquelles ont peut baser des analyses plus tard.


Le 08/05/2017 à 11h 10







joma74fr a écrit :



Travailler correctement, c’est beaucoup dire : les personnalités politiques des instances fédérales en Suisse sont comme les ministres en France. Ils sont connus pour se mettre des bâtons dans les roues entre eux et pour inventer des actions médiatiques pour se faire valoir auprès de l’opinion publique.





A quelques exceptions près, votre affirmation est très majoritairement fausse. Le Conseil Fédéral fonctionne sur le principe de la collégialité: une fois une décision prise par votation, tous ses membres défendent le résultats. L’élection des conseiller fédéraux par le parlement est un processus qui favorise nettement la sélection de personnalités qui suivent ce principe. Il y a parfois des ratés, comme en 2004 avec un conseiller fédéral pas assez collégial qui n’a précisément pas été réélu à cause de ce fait, mais globalement ça fonctionne très bien.



Le conseil fédéral actuel est un bon exemple de diversité d’origines, de langues, de formations, d’intérêts et de partis:&nbspfr.wikipedia.org WikipediaSuivez les liens pour découvrir leur parcours de vie, c’est très différents des ministres Français…&nbsp;


Le 08/05/2017 à 09h 42

Vous faites une confusion entre les volontés des partis et celles des régions linguistiques. Vous trouverez des volontés politiques similaires dans toutes les langues. Si les proportions sont légèrement différentes, elles n’apparaissent généralement que lors de votations difficiles à départager.



Les cantons Suisses, les alémaniques en premiers, n’aiment pas transférer les tâches à la confédération. Quand à la souveraineté Suisse, elle appartient au peuple uniquement grâce à la démocratie direct, un outil des plus puissants pour forcer les politiciens à travailler correctement.

Le 08/05/2017 à 09h 18

Comme exposé dans mon premier message, la politique sans aucune frustration est une utopie, mais un bon système permet d’évoluer avec un minimum de frustration. Bien sûr que le système politique Suisse est perfectible (de même que le système politique Français).



&nbsp;La politique Suisse force aux compromis, y compris avec les Suisse Romands, qui sont représentés dans toutes les instances de l’état, y compris la plus haute, et votent sur tout les objets. Sur bien des sujets il y a mois de différences entres les langues qu’entre les idées. La preuve est que la plupart des partis importants sont actifs en plusieurs langues.

Le 07/05/2017 à 23h 20

Une histoire différente n’est pas un argument suffisant pour refuser une analyse. Les choses n’ont pas toujours été ce que’elles sont aujourd’hui, et quoi qu’il en soit, elles seront un jour différentes. Si il y a bien une constante dans cette élection, c’est bien l’appel au changement (mais lequel ?). Un changement s’inscrit dans l’histoire, il n’y a pas de contradiction entre les deux termes.

Le 07/05/2017 à 22h 50

Comment ne pas frustrer en parlant de politique ? Dans l’absolu, je ne pense pas que ce soit totalement possible, mais chacun peu reconnaître une gradation dans les débats. Un bon système politique est celui qui permet de trouver un maximum de solutions consensuelles, avec pour résultat le minimum de frustrations. Cela requière en premier lieu que la très grande majorité des citoyens se sentent représentés malgré leur différences d’opinons sur les nombreux sujets qui occupent un pays. Un président à lui tout seul ne peux pas y arriver en dehors de situation de crises très graves qui réunis une majorité sur un minimum de questions. En dehors de ces situations, un président incarne un pouvoir trop centralisé pour permettre des débats autre que “majorité” contre “opposition”, aussi vide que soit ces termes actuellement en France.&nbsp;



Je vis en Suisse, dont la constitution de 1848 est en partie inspiré de la constitution Française et des USA, alors des exemples enviés de modernisme politique. Quelques cantons ont à l’époque insisté pour que la tête de l’état soit un collège de plusieurs partis, un système traditionnel qui fonctionne bien pour eux. Semble-t-il une bonne idée, qui pourrait inspirer la France en retour.&nbsp;

Le 24/04/2017 à 14h 40

En même temps sans consensus je vois pas comment 4 forces politiques qui se partagent aux environs de 20% des citoyens vont pouvoir trouver des solutions. Car le fait de forcer à voter pour un candidat de second choix n’enlève en rien la frustration de ne pas se sentir représenté. &nbsp;J’ai entendu sur une TV Française que l’équipe de Macron travaillent à créer un programme politique pour répondre point par point à celui de Le Pen. Ça sent la bricole à plein nez pour juste optimiser une élection, comme si les promesses passées n’ont soudain plus aucune validité. Si un tel comportement est admis, il n’y a aucune raison pour qu’il ne se répète pas une fois l’élection terminée.

Le 24/04/2017 à 12h 12

En tant que Suisse je ne peux que souhaiter que les citoyens Français obtiennent le plus rapidement possible une représentation multipartisme proportionnelle et un vote direct de la population sur les modifications de la constitution. Seule façon à mon sens de mettre fin à l’affligeant et désolant spectacle médiatique digne du plus mauvais programme de télé-réalité qui n’a jamais existé. Jamais vu autant de négations et de trahisons par autant de “responsables” politique (ceux qui prétendre être des exemples) en aussi peu de temps. Quand le système est au delà de sa limite, il faut adapter le système. A entendre les médias Français on dirait que c’est le système qui vote pour lui-même à la place des citoyens. Invraisemblable…

Le 23/03/2017 à 15h 01

Le terme Ai est de plus en plus régulièrement utilisé de façon très générique car c’est le buzz word à la mode en ce moment et probablement pour toute la prochaine décade. La conséquence est que chaque acteur du marché cherche à dire qu’il a quelque chose à offrir dans le domaine de l’AI. ARM ne coupe par à cette constatation. Il faut toutefois remarquer qu’il y a un réel engouement pour créer des applications qui permettent de dire qu’elles “apprennent” en terme de marketing même si techniquement le moyen mis en oeuvre est très éloigné de la point de la recherche en matière d’AI.



Ma compréhension de ce que ARM tente de communiquer est qu’ils projettent que la phase apprentissage des applications avec de l’AI va se faire majoritairement dans le cloud et que la partie utilisation post-apprentissage va se faire majoritairement sur des smartphones. ARM ne le fait pas par hasard, mais sur la demande de ses principaux clients et investisseurs. Tip: ARM a été racheté par le Japonais SoftBank qui est très actif dans la recherche en matière de robot en contact avec les humains.

Le 23/03/2017 à 14h 48

Oui, l’architecture big.LITTLE est très efficace. Aucune autre architecture n’arrive à l’heure actuelle à faire mieux en terme de modulation de la consommation en fonction de la vitesse de traitement. C’est du reste en se basant sur ce succès que ARM va plus loin aujourd’hui avec DynamIQ: &nbsp;le constat est le suivant: pour certain produits, le rapport idéal des coeurs big et des coeurs little n’est pas de 1:1 comme c’était le cas par défaut actuellement.



Pour comprendre pourquoi un coeur little consomme bien moins q’un coeur big, il faut constater que pour avoir des performances de pointes, il faut non seulement augmenter la fréquence et donc la tension, mais aussi beaucoup de traitement en parallèle (pipeline, etc…) de mémoire caches (L1, L2) et de prédiction de branchement performante, ce qui utilise beaucoup de transistors. Avec un coeur big il y a beaucoup plus de transistors qui commutent pour un même code et aussi beaucoup plus de transistors en tout qui ont une consommation même si il ne commutent pas. Donc on ne peut pas augmenter efficacement les performances d’un coeur little en augmentant sa fréquence et sa tension, et on ne peut pas efficacement diminuer la consommation d’un coeur big en diminuant sa fréquence et sa tension. D’où l’avantage d’utiliser deux coeus qui ont chacun une optimisation différente. Cela permet d’être rapide ou basse consommation suivant le besoin à chaque instant. C’est très utile pour un smarphone qui doit consommer peu la majorité du tempe et fournir un traitement le plus rapide possible quand l’utilisateur attend un résultat.



Toute la beauté de cette architecture est que la commutation entre un coeur big et un coeur little est transparente pour les applications qui n’ont pas besoin d’accélération spécifique car le jeu d’instruction de base est identique. C’est donc comme commuter d’un coeur à l’autre dans un système multicoeur symétrique. DynamIQ semble justement améliorer encore la vitesse de commutation.

Le 23/03/2017 à 14h 02


  1. AMD n’est plus un fondeur depuis la vente de ses usines à&nbsp;GlobalFoundries en 2009 :&nbsphttps://en.wikipedia.org/wiki/GlobalFoundries . A noter que Samsung a livré des chips de 14nm à AMD, bien que les informations soient partielles à ce sujet.



    &nbsp;2) AMD est le créateur et propriétaire du jeux d’instruction x86 64 bits qui le licencie à Intel. Intel a ainsi été forcé de négocier l’accord totalement symétrique d’échange de licence x86 32 bits avec AMD également en 2009:&nbspen.wikipedia.org Wikipedia. Les deux entreprises sont donc depuis à égalité sur ce point.

Le 08/02/2017 à 22h 26







OlivierJ a écrit :



Pas 2 Go, pas 27 Go (punaise déjà ce serait bien gros), mais DEUX. CENT. SOIXANTE. DIX. GIGAS…



J’arrive pas à piger, mais je m’en remettrai :-) .

Je vois une explication éventuelle, c’est qu’ils gardent toutes les révisions hebdomadaires depuis des années, ça doit bien faire enfler.&nbsp;



&nbsp;

Une hypothèse pour expliquer cette taille est que les binaires sont également dans le dépôt. Ca semble illogique à première vue, mais si le dépôt contient vraiment tout les parties (os+lib+apps), imaginer le temps qu’il faut pour compiler tout ce qui est nécessaire pour juste commencer à valider une modification dans un environnement à jour. Donc peut-être que chaque team commit aussi les binaires dans le but de permettre aux autres développeurs de disposer de version à jour rapidement. Cela pourrait aussi permettre de tester plusieurs versions de certains binaires pour des tests de régression de l’ensemble. Mais tout cela n’est qu’une hypothèse sans aucun fondement…


Le 07/02/2017 à 10h 49







Bejarid a écrit :



Le premier lien est un vulgaire troll (qui fait honte non seulement au “site” qui l’a publié avec un bon gros titre pute-a-clic des familles, mais aussi à quiconque le répand).



Le deuxième lien dit exactement le contraire : GVFS est une surcouche à NTFS qui permet à GIT de ne plus fonctionner uniquement en mode local, mais aussi en mode distant : the system seamlessly fetches the content from the cloud (and then stores it locally so future&nbsp;accesses to that data are all local). Ce “local”, c’est bien sur NTFS, GVFS ne faisant que la partie “non-fetched” (regarde le projet github pour plus de détails).



TL;DR : t’es un troll qu’a des problèmes de compréhension.





Il y a un autre lien dans la page du premier qui explique le problème avec plus de détails.



&nbsp;Cela dit, il suffit de tester un peu Git sous Linux ou sous Windows pour constater qu’il y a une différence. J’en ai fait l’expérience avec un client avec qui on a développé un système embarqué Linux qui utilise aussi un DSP dont le compilateur ne fonctionne que sous Windows. Comme le but était sur le long terme de transférer les fonctions du DSP sur le processeur ARM sous Linux, on a décidé de mettre toutes les sources dans le même dépôt. Du coup, en fonction de la partie à compiler, mon portable exécutait soit Linux, soit Windows (wine et la virtualisation n’était pas utilisable pour d’autres raisons). C’était donc la même machine avec le même dépôt, soit sous Linux avec ext4, soit sous Windows 7 et NTFS. La différence était très facile à observer. Ca a du reste achevé de convaincre le client d’utiliser Linux un peu partout dans son entreprise.



Un dernier point facile à vérifier en cherchant sur le net: Linux depuis sa toute première version publiée est optimisé pour une gestion de système de fichier multithread. Ca toujours été une priorité pour Linus Torvalds au point d’être un des points du célèbre conflit avec Andrew Tanenbaum. Finalement il ne faut pas oublier que c’est justement Linus Torvald qui a fait l’architecture de Linux et de Git, donc ce n’est pas surprenant que les deux sont très optimisés pour fonctionner ensemble avec le maximum de performances. Windows et NTFS n’était pas conçus avec la même architecture ne peut que difficilement produire la même performance avec Git.



L’article explique très bien que GVFS agit comme un filtre dont le but est de minimiser la quantité de donnée à stocker dans NTFS, C’est donc bien NTFS qui est le problème. CQFD.


Le 07/02/2017 à 01h 25







psn00ps a écrit :



Au premier git diff ou git status, il va devoir lire les 270Go, non ?<img data-src=" />





Non, et c’est justement ce qui fait que Git est si rapide. Lors d’un git diff ou status, seul le métadonnées des dossiers sont consultées dans un premier temps. Pratiquement, un strace git status montre que pour chaque dossier il n’y a que 4 petits appels système:

&nbsp;

openat(AT_FDCWD, “drivers/rtc/”, O_RDONLY|O_NONBLOCK|O_DIRECTORY|O_CLOEXEC) = 10



getdents(10, / 10 entries /, 32768) &nbsp; &nbsp;= 1392



getdents(10, / 0 entries /, 32768) &nbsp; &nbsp;= 0



close(10) &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = 0



&nbsp;Cela fait très peu de donnée mais suffit pour déterminer si chacun des fichiers du dossier ont été modifiés ou pas. Normalement toutes les données requises pour cela sont dans les caches du noyau en mémoire vive, donc le média de stockage n’est quasiment pas accédé. Du coup c’est très très rapide.



C’est seulement si un fichier a été modifié qu’il est lu et comparé, mais cela concerne généralement très peu de fichiers pour chaque commit.


Le 06/02/2017 à 23h 48

C’est même bien plus qu’une simple conviction: c’est confirmé par un développeur de MIcrosoft:

&nbsphttp://www.zdnet.com/article/anonymous-msft-developer-admits-linux-is-faster-tha…

Cela dit, dans le cas de Git c’est pas vraiment difficile à constater tant l’architecture de Git est optimisée pour Linux.



La page suivante &nbsphttps://blogs.msdn.microsoft.com/bharry/2017/02/03/scaling-git-and-some-back-sto… &nbsp;est très intéressante et montre bien que GVFS est une couche qui permet d’éviter au maximum l’utilisation du système de fichier local qui dans leur cas est NTFS. Et ce au prix de devoir être connecté au serveur à chaque fois d’un nouveau fichier est lu.

Le 06/02/2017 à 16h 20

Une partie du problème de Git sous Windows vient justement de WIndows qui est beaucoup plus lent que Linux pour les opérations les plus courantes de Git. Ce n’est pas un hasard: quand il y développé Git, LinusTorvalds cherchait le maximum de performances et comme il est plus que bien placé pour savoir ce qui va vite sous Linux, il y basé l’architecture de Git spécifiquement pour Linux (au point d’en abuser avec quelques trucs comme l’attribut de montage ‘noatime’). Donc forcément ça ne va pas aussi vit sur Windows qui déjà à la base a un problème de performance avec les grosses opérations sur les systèmes de fichier.



Le code d’un noyau Linux prend actuellement environ 800Mo avec environ 60’000 fichiers et même sur mon vieux&nbsp;AMD A10-7850K il ne faut que 0.5 secondes pour faire un git status ou un git diff sur tout le code. A priori même avec un code délirant de 270Go ça ne devrait pas prendre tellement plus de 3 minutes. Délirant car ça semble difficile de croire qu’il ne soit pas possible d’organiser autant de données dans de multiples sous-projets, une possibilité qui est maintenant très bien supportée par Git. Il doit y avoir un sérieux problème historique d’organisation des données…



Finalement il faut rappeler ici que Git a pour but principale de pouvoir fonctionner de façon totalement décentralisée, ce qui implique une copie complète locale du dépôt. Il y a quelques possibilités pour augmenter les performances en limitant le transfert initial, mais cela peut demander des transferts ultérieurs. La proposition de Microsoft semble miser beaucoup sur cette technique mais la conséquence est qu’il faut certainement un lien constant avec un serveur central.

Le 27/09/2016 à 09h 24

Je crois que je me suis trompé de destinataire. Désolé.

Le 27/09/2016 à 09h 16

“Le problème avec la démocratie c’est que tu laisses aussi les cons voter” Ca sent bon l’élitisme à la Française là…



Et qui s’octroie le droit de décider qui est con ou pas ? Une autre façon d’envisager les choses est d’admettre que tu ne connais pas tout sur tout les aspects de la vie de tout tes compatriotes. Je doute que quelqu’un possède des compétences d’expert dans absolument tout les domaines possibles en même temps. Il y a donc très certainement toujours la possibilité que quelqu’un d’autre puisse légitimement vous traiter de con sur un sujet.



“Rien ne sert d’avoir raison, si on a raison tout seul”.

Le 26/09/2016 à 22h 28

Dans le cas où c’était moi le destinataire.



Oui je pense que le système politique Suisse a des avantages et que d’autres pays pourraient aussi tirer des avantages en adoptant certaines de ses caractéristiques. Il est certainement perfectible, tout comme la monarchie républicaine…



Je ne saisis pas l’argument des “dommages collatéraux” à propos de l’interdiction des minarets. La culture d’un pays est un sujet hautement sensible au cas où les positions politiques montantes un peu partout ne vous inquiètent pas. A un moment il est préférable de forcer le débat politique plutôt que d’attendre des frustrations encore plus grandes et une crise encore plus grave.&nbsp;



Concernant le système italien de référendum, imaginez son existence dans la situation politique actuelle de la France ou très schématiquement il y a potentiellement 3 partis qui se disputent le pouvoir avec des parts comparables. Bien qu’i y aura forcément qu’un seul présidant au terme du processus électoral, fondamentalement il a environ les 23 de la population qui ne voulaient pas de lui au départ. Il risque fort d’avoir 23 de désaveux sur les objets attaquables par référendum, juste à cause de l’émotion résiduelle de l’élection.&nbsp;C’est pour cela que je pense qu’il est utile de parler d’un système multi-partis.

Le 26/09/2016 à 21h 31

Oui le référendum est binaire et c’est bien pour cela que ce n’est qu’une pierre à l’édifice. Un bon référendum qui passe au 23 ou plus c’est d’abord le résultat d’un bon compromis négocié entre les principaux partis. De ce point de vue c’est le système gouvernemental binaire de type majorité/opposition qui bloque le plus la négociation d’un compromis acceptable. Un décret est encore pire, avec le potentiel de concentrer un maximum de frustration récupérée plus tard pour attaquer la majorité.



En Suisse il n’y a pas réellement d’opposition car le gouvernement est multi-partis &nbsp;jusqu’au plus haut niveau de l’état. &nbsp;Bien que cela n’enlève pas par magie les débats animés, force est de constater que c’est tout de même assez efficace pour augmenter la rationalité des débats. Le fait que les parlementaires soient élus directement pas le peuple chaque 4 ans contribue également à maintenir une certaine pression pour trouver des compromis. Le système politique Suisse, l’histoire l’a montré jusqu’ici, sanctionne assez efficacement les politiciens qui ne jouent pas le jeu de la négociation du compromis.

Le 26/09/2016 à 21h 02

Ma compréhension du référendum abrogatif en Italie est qu’il correspond au référendum facultatif en Suisse, c’est-à-dire qu’il permet d’annuler une décision de modification de loi. Donc il semble que l’on soit d’accord là dessus.



&nbsp;Pour les modifications de la constitution Suisse (sujet du vote de cet article) le référendum est le même mais il est obligatoire. La différence entre les deux est assez minime en pratique car le parlement sait qu’il risque un référendum facultatif si il tente de faire passer n’importe quoi. Dans les deux cas le parlement est parfois désavoué par le peuple, donc là aussi la différence est minime en pratique.&nbsp;



Franchement quand je vote je ne prête pas trop attention que quel type de référendum il s’agit. L’essentiel est que le parlement ne puisse pas se déconnecter de la volonté du peuple et que le peuple ne puisse pas se déconnecter des décisions politiques à prendre, qu’elles soient trivial ou difficiles.

Le 26/09/2016 à 20h 42

La tendance à la dérive des médias manipulés par des lobbys existe partout. L’utilité d’un bon système politique est justement de pourvoir y apporter un équilibre (les fiances ne sont pas infinie) avec l’avis de la population. Même une bonne décision n’en sera finalement pas une si la population ne l’accepte pas. Voter souvent sur les objets permet d’augmenter substantiellement l’approbation de la population à de bonnes décisions.&nbsp;

Le 26/09/2016 à 20h 20

En Suisse ça fonctionne depuis 1848 avec des résultats plutôt encourageant.



Cela dit je suis d’accord pour dire que les référendums (obligatoire et facultatifs) ne sont pas suffisant pour une bonne stabilité. Un autre outil est l’initiative populaire permettent de forcer une votation sur un sujet qui n’aurait pas été traité. Mais je pense que c’est surtout le principe du conseil fédéral multi-partis qui et intéressant car il permet à une grande partie de la population de se sentir représenté jusqu’au plus haut niveau de l’état. Cela modère le trop courant système binaire majorité/opposition source de beaucoup de frustration selon moi.

Le 26/09/2016 à 19h 49

Et bien voilà un exemple typique d’analyse très réducteur.



La Suisse doit augmenter sa participation dans la recherche internationale d’information sur la sécurité dans la situation actuelle (en particulier chez nos amis Français). C’est aussi à ce titre que la loi a été acceptée.



Pour l’AVS ce n’est que du bon sens pour maintenir un équilibre dans les finances. Ce n’est pas en asphyxiant ceux qui bossent que les retraités vont virent mieux. &nbsp;Le ratio entre le nombre d’emploi et le nombre de retraité ne cesse de diminuer et il est parfaitement clair que cela va continuer au moins plusieurs dizaines d’années. Il faut trouvez d’autres solutions. C’est un des grands chantiers au parlement et il y aura d’autres proposition dans le futur à ce sujet.



En ce qui concerne l’écologie, le défaut de la proposition était dans l’impossibilité de quantifier ses conséquences économiques, et ça c’est un point toujours très débattus en Suisse. Cela ne fait pas des Suisse est anti-écologistes pour autant. Il n’y a pas longtemps, les Suisses ont votés une loi très contraignante d’aménagement du territoire pour limiter entre autre les constructions en zone rurales&nbsphttps://www.admin.ch/opc/fr/classified-compilation/19790171/index.html



Il faut interpréter ces résultat de votation dans un contexte de temps plus long. Pour ma part je préfère un système politique qui ajuste sa constitution et ses lois en continu plutôt que d’attendre une crise ingérable.

Le 26/09/2016 à 19h 14

Alors couvrez la France et l’Europe de minaret, ça semble vraiment une super bonne idée actuellement…

Le 26/09/2016 à 18h 41

Critique un peu facile.



&nbsp;Le parlement Suisse est composé de deux chambres (une en proportion de la population des cantons, l’autre avec deux parlementaires par cantons) qui doivent se mettre d’accord sur tous les objets. Tout les parlementaires sont élus directement par le peuple chaque 4 ans. Ils représentes donc un large spectre des sensibilités de la population, ce qui est démontré par la diversité des partis qui y sont représentés. Ce qui est intéressant dans le système politique Suisse c’est que l’on peu observer que même un parlement élu directement est parfois désavoué par le peuple qui vote sur toutes les propositions de modification de la constitution ou qui peux annuler des décisions par référendum. Ceci montre combien un contrôle direct par leur peuple est indispensable pour que la politique ne se déconnecte pas des réalités ressenties par la population, ceci pour éviter que les frustrations, et donc les émotions, prennent le dessus.



En conclusion, je pense justement qu’une démocratie direct permet de diminuer les frustrations dans la population et donc de diminuer les réactions émotionnelles.

Le 26/09/2016 à 18h 21

J’ai lu la proposition de loi avant de voter oui. Un autre aspect de ces modifications est de crédibiliser la Suisse vis-à-vis des autres pays en matière de recherche d’informations à l’échelle international.

Le 26/09/2016 à 18h 07

En suisse c’est plutôt les politiciens qui ont peur des décisions des citoyens via les votations. Du coup le parlement (élu directement pas le peuple) passe parfois beaucoup de temps pour proposer des modifications acceptables.&nbsp;

Le 26/09/2016 à 17h 58

Si il est vrai qu’un haut taux de participation est rassurant pour crédibiliser le résultat d’une votation, cela ne change pas forcément le résultat de la votation.



L’auteur de l’article indique ses sources avec détails:&nbsp;&nbsphttps://www.admin.ch/ch/f/pore/va/20160925/det607.html

Suivant &nbsp;les contons les taux de participation à cette question varie entre environ 33.0% &nbsp;à Glaris et 61.7% à Schaffhouse (presque le double car le vote y est obligatoire jusqu’à 65 ans), alors que les résultats dans ces deux contons sont très similaires à tout les autres contons.

Le 23/09/2016 à 12h 09

https://theintercept.com/surveillance-catalogue/cellbrite/

&nbsp;“Will suck every last byte of data out of a seized cellphone”

&nbsp;Et ce n’est certainement pas le dernier modèle de cet outil.

&nbsp;

Le 31/08/2016 à 23h 37

L’analyse dans l’article est un peu sévère. Dans mon bureau la souris est de loin ce qui fait le plus de bruit et ça fait des années que j’espérai un produit comme celui-là. A quand le tour du clavier.

Le 22/01/2016 à 18h 45

Si ca continue, c’est Nvidia qui va racheter AMD, ou plus exactement en prendre le contrôle par un financement et en changement des dirigeants. Ce n’est pas si impossible que ça: &nbsp;à l’époque où AMD voulait faire l’acquisition de compétences GPU, Nvidia était leur premier choix et ATI seulement le plan B. Mais le directeur de Nvidia avait exigé en gros d’avoir le control sur AMD, ce qui lui a été refusé. Nvidia a un intérêt très fort pour obtenir des licences x86 et x86-64. Le nom AMD risque cependant de rester car c’est sous ce nom qu’à été rédigé l’accord de licence avec Intel et qu’il se termine en cas de vente d’AMD.



&nbsp;Imaginez un concurrent d’Intel qui arrive à faire des CPU aussi performant que AMD et Nvidia combinés arrivent à faire… Cela pourrait complètement changer la dynamique du marché, qui est plus que amorphe depuis des années.