Vidéo qui explique le projet Avogadro dont le but est de redéfinir le kilogramme.
Apparemment ce dernier serait la seule unité du système SI qui serait encore définie par un objet physique appelé IPK (International Prototype Kilogram).
Le hic c’est qu’on se serait aperçu que sa masse varie au cours du temps sans savoir exactement pourquoi ; donc, pour avoir une définition plus précise, certains scientitiques cherchent à redéfinir dans un premier temps la constante d’Avogadro ce qui se ferait par la création d’une sphère de silicium d’un kilogramme et d’une dizaine de centimètres de diamètre, quasi parfaite : si elle était rapportée à l’échelle de la terre, l’écart entre la plus haute montagne et la vallée la plus basse serait de 14m (?). Ils calculeraient ensuite le nb d’atomes présents dans la sphère pour fixer la constante d’Avogadro, qui actuellement dépend de la définition du kilogramme, et se serviraient du résultat pour redéfinir le kilogramme, à savoir la masse de x atomes de silicium 28 (x étant le nb calculé précédemment).
Un clip d’un type qui se promène en ville à reculons ; la vidéo est montée en sens inverse pour donner l’impression qu’il marche normalement tandis que tout autour de lui se déplace à l’envers.
je donne pas 5 ans pour voir ce chiffre passer de 2% à 20% grâce à l’augmentation du nombre de jeux disponibles … " />
Je suis partagé entre “Chouette, linux serait enfin populaire sur desktop” et “Merde il me faudrait un antivirus”. " />
Le
18/03/2013 à
21h
52
arkansis a écrit :
Pourquoi Suse a aussi peu de réputation ? :-(
Ça a déjà été dit par Drepanocytose et fArAwAy mais tous les linuxiens ne sont pas des gamers (j’en connais quelques-uns dont moi), et Valve a concentré ses efforts, au début tout du moins, principalement sur Ubuntu, ce qui est logique puisque c’est la distribution la plus populaire.
Le
18/03/2013 à
20h
47
ff9098 a écrit :
Certes, mais bon on parle d’un retard de 6 mois sur un paquet majeur. Enfin peu importe, moi ça ne me convient pas j’ai horreur d’attendre " />
Je comprends tout à fait. " />
Edit : la version 3.6 est dans les dépôts expérimentaux mais bon j’ignore à quel point c’est stable.
Le
18/03/2013 à
20h
40
ff9098 a écrit :
Je regarde la version de gnome-shell dispo pour sid : 3.4
On est à la 3.6 depuis septembre…..
C’est pour ça que je disais techniquement, et que je reconnaissais que pendant la période de gel de testing sid recevait moins de paquets.
J’ai posé la question sur le canal irc de debian et c’est la réponse que j’ai eue.
C’est aussi ce que dit craigevil sur les forums de debian.net :
sid doesnt freeze like testing, but while testing is frozen it will get few packages.
Le
18/03/2013 à
20h
28
ff9098 a écrit :
Debian Sid est en freeze depuis 6 mois.
Techniquement je ne crois pas que sid gèle pendant 6 mois à l’instar de testing (en tout cas ce n’est pas écrit dans le manuel), même si dans les faits elle reçoit peu de paquets pendant le gel de cette dernière c’est vrai.
Après au besoin il y a les dépôts expérimentaux et bien d’autres.
Le
18/03/2013 à
19h
05
AngelSword a écrit :
Jusque la, bien que ce ne soit pas très lisible, ça reste correcte, ensuite il faut chercher, je suppose, ça :http://www.debian.org/CD/
Ou alors cliquer sur le cadre vert en haut à droite dans lequel est écrit “Télécharger Debian 6.0”.
Je serais curieux de connaitre le pourcentage d’usager qui utilisent ce genre d’outil.
Car de mon côté si j’en parle pas autour de moi, les gens ne connaissent pas.
De façon approximative, si on part du principe qu’il y a environ 450 millions d’internautes surfant avec Firefox, et étant donné que sur les 30 derniers jours il y a à peu près 15 millions d’utilisateurs quotidiens, ça devrait tourner aux alentours de 3% d’utilisateurs de FF.
Après pour chrome, IE, opera, safari, je ne sais pas, mais ça doit faire baisser le pourcentage global.
Il demandait une alternative pour utiliser plusieurs mdp complexes sans passer par un logiciel, c’en est une. " />
À titre perso j’utilise keepassx et j’ai un backup de sa bdd dans le cloud dans un dossier chiffré avec encfs. " />
Le
13/03/2013 à
09h
39
mifranc a écrit :
qu’on m’explique comment on peut faire pour avoir des mots de passe compliqués jamais identiques quand on a plusieurs banques qu’on est inscrit sur de nombreux sites de commerce qu’on a plusieurs comptes ebay de nombreuses adresses e-mail sans utiliser des logiciels type LastPass ou autre capables d’enregistrer ces mots de passe….
Moralité : ne vous occupez pas de la caméra en permanence dans votre dos, ce n’est rien, faites comme si elle n’était pas là. " />
C’est un peu ça on dirait. " />
Ou alors faudrait légiférer sur le sujet, ou encore passer le plus souvent possible par des réseaux alternatifs (i2p, freenet) mais pour ça faudrait qu’on ait un meilleur upload : le gros problème quand on parle de décentraliser les usages sur internet.
Ça finira par venir avec la fibre …
Le
10/03/2013 à
13h
24
SebGF a écrit :
Dans un sens, j’ai une configuration atypique (Opera sous Linux, pas vraiment fréquent…) et une IP fixe, donc à partir de là, le tracking devient facile.
Pour l’IP fixe, je n’ai malheureusement pas le choix, c’est d’office chez Bouygues en FTTLA apparemment.
Je viens de reboot sous Seven pour tester 4 navigateurs (IE, FF, Chrome, Opera) dans leur configuration d’origine et les résultats sont tous semblables : entre 21 et 22 bits d’entropie. Donc je crains que même si tu avais un OS et un navigateur plus commun ça ne changerait pas grand chose.
Même changer régulièrement d’IP par exemple en passant par des proxies ne suffit pas :
Using similar techniques to those described by the EFF, ThreatMetrix generated digital fingerprints of site visitors, which helped iReel know when a single user was trying to use hundreds of different credit cards, even when the fraudster was using proxy IP addresses, said Adam Altman, iReel’s chief operations officer. “We were able to cut out a lot of the unnecessary transactions,” he said.
Le
10/03/2013 à
11h
56
SebGF a écrit :
Ben en fait j’ai juste pour habitude de refuser systématiquement et interdire les cookies sur les sites dont je n’estime pas ça nécessaire.
En gros ils ne sont autorisés que sur ceux où j’ai un compte pour garder la session, par défaut c’est non pour tout le domaine et les sites associés.
Non mais je plaisantais, je fais pareil que vous. " />
SebGF a écrit :
Your browser fingerprint appears to be unique among the 2,758,520 tested so far.
Currently, we estimate that your browser has a fingerprint that conveys at least 21.4 bits of identifying information.
Et c’est bien … ? " />
J’aurai tendance à dire, pas trop. " />
Ça veut dire que sur les millions de tests effectués sur leur site, en moyenne seul 1 navigateur sur près de 3 millions a la même configuration que le tien.
Donc j’imagine que couplé à d’autres informations, on doit pouvoir facilement te tracer.
Si j’ai bien compris, pour le peu que j’ai lu, à la base l’identification sans cookie aurait été développé par des sociétés comme iovation, ThreatMetrix et 41st Parameter pour les banques et sites d’ecommerce qui veulent lutter contre les transactions frauduleuses.
Mais des sociétés comme Scout Analytics proposent désormais ce genre de service à d’autres sites, essentiellement ceux à abonnement payant, pour fermer les comptes d’abonnés qui partagent du contenu sans en avoir les droits.
Et ils vont plus loin que le site de l’EFF en prenant en compte d’autres facteurs, comme les habitudes de frappe (genre la vitesse).
La technique n’est peut-être pas fiable à 100% mais elle semble donner de bons résultats tout de même tant les navigateurs semblent communiquer beaucoup d’informations (dixit Peter Eckersley l’auteur du site) :
Although fingerprints turn out not to be particularly stable, browsers reveal so much version and configuration information that they remain overwhelmingly trackable. There are implications both for privacy policy and technical design.
… et elle est surtout plus efficace que des cookies qu’on peut effacer/interdire ou des sites de tracking qui peuvent être bloqués côté utilisateur avec des addons comme ghostery.
Je ne serais pas étonné qu’après être passée de l’utilisation sécuritaire, en passant par celle du respect du droit d’auteur, elle finisse par servir à établir des profils plus précis, donc ayant plus de valeur, pour les publicitaires. Remarque c’est peut-être déjà fait, c’est vieux cette histoire, le site date de 2010 je crois, et lui-même ne faisait que tester une rumeur qui courait depuis un moment.
Niveau contre-mesures, l’internaute aurait au choix, d’après la conclusion du pdf : désactiver javascript, surfer via Tor, utiliser certains type de smartphone (oui je sais, étrange…).
Le
09/03/2013 à
19h
25
SebGF a écrit :
Merde c’est con. " />
Konrad a écrit :
“You’ve opted out, but you can opt in at any time.”
Mihashi a écrit :
Cookies are disabled
" />
Ah ben c’est sûr que si vous n’y mettez pas un peu du votre aussi … " />
Il commence a monter en puissance sur youyou antoine daniel,il doit faire 10 000 abonnées par semaines a ce rythme là, " /> mais il est surtout douer,sympa et drôle. " />
Oui je viens de le découvrir hier, en voyant que le JDG s’était abonné à sa chaîne (je ne dois pas être le seul, ça va booster son audience), j’ai regardé quelques-unes de ces vidéos et je le trouve drôle et ces liens collent bien à l’esprit des LIDD.
Par contre j’ai pas encore pigé la signification du message subliminal (M 1⁄13 ?) qu’on voit s’afficher parfois. " />
Mais si tu ne montes pas tes SSDs en raid un NAS ne devrait pas poser de pb.
J’oubliais : certains disent que de nos jours le garbage collection suffit, que l’importance du TRIM est surestimée, et qu’on peut conserver de bonnes performances même sans TRIM.
De fait on trouve des gens qui utilisent leurs SSDs en raid, sans TRIM, et sans constater de baisse significative de leurs débits.
En attendant, pour compléter la méthode sous Linux, je viens de voir un programme sous Windows qui permet de vérifier qu’il passe bien.
Lanthares a écrit :
le TRIM n’est pas dispo pour des SSDs montés en RAID, ce qui est, je pense, toujours vrai (enfin presque).
Le presque c’est à cause de ça : depuis quelques mois intel a sorti un pilote raid qui supporte enfin le TRIM en raid 0 avec ses chipsets série 7 sous Seven (et Windows 8?), et moyennant flashage du bios il paraît qu’on peut avoir la même chose avec certains chipsets intel série 6 …
Le
09/03/2013 à
06h
04
Deep_INpact a écrit :
Donc même si on en avait les moyens, on ne pourrait pas mettre de SSD dans un NAS à l’heure actuelle ?
Du moment que tu utilises un ssd et un OS relativement récent et un système de fichiers pas trop exotique, la seule vraie inconnue (parce qu’il n’y a pas de moyen simple pour vérifier) c’est le pilote du contrôleur sata.
Il faut qu’il laisse passer la commande TRIM si tu veux en bénéficier.
J’imagine que pour la plupart des contrôleurs actuels les pilotes le supportent, sur du matériel plus ancien je ne sais pas, mais si le constructeur ne le fait pas déjà microsoft fournit des pilotes ahci et ide qui devraient supporter le TRIM.
Sinon je crois que l’admin du forum dit, dans le lien que tu indiques, que le TRIM n’est pas dispo pour des SSDs montés en RAID, ce qui est, je pense, toujours vrai (enfin presque). Mais si tu ne montes pas tes SSDs en raid un NAS ne devrait pas poser de pb.
Le
08/03/2013 à
19h
51
Maicka a écrit :
Peut t’on faire tourner tranquille un ssd sur une carte mère qui ne supporte pas le mode AHCI ?
L’AHCI augmente beaucoup les performances, mais tu peux parfaitement avoir un ssd sur une CM qui en est dépourvue, donc a priori connecté en IDE.
Et contrairement à ce qui a été souvent écrit, l’AHCI n’est pas indispensable pour le TRIM.
Pour que le TRIM fonctionne il faut que 4 éléments le supporte :
le ssd (c’est le cas pour tous de nos jours j’imagine)
l’OS (pour Windows à partir de Seven, pour Linux à partir du noyau 2.6.33 et à condition de rajouter l’option discard dans /etc/fstab)
le système de fichiers (sous Windows ntfs, sous Linux ext4 et btrfs, j’ignore pour les autres fs…)
le pilote du contrôleur sata sur lequel est connecté le ssd
Pour savoir si le TRIM est supporté au niveau de l’OS avec Windows tu peux taper dans une invite de commande : fsutil behavior query disabledeletenotify
En réponse tu dois obtenir : Disabledeletenotify = 0
Par contre ça ne garantit pas que le TRIM soit bien supporté par les autres éléments (ssd, fs, pilote sata).
Sous Linux il existe une méthode pour être sûr qu’il passe, sous Windows je ne sais pas.
Le
08/03/2013 à
16h
55
blamort a écrit :
Sinon je vois dans les commentaires quil ne faut pas depasser les 50% d’utilisation sur les SSD, serieux ? pourquoi =
Plus tu as d’espace libre sur le ssd plus ça augmente l’over-provisioning (OP), qui est un espace que le contrôleur va utiliser pour remplacer des cellules trop usées ou qu’il va utiliser temporairement lors de certaines tâches internes telles que le wear leveling (algo consistant à égaliser l’usure des blocs, de sorte qu’idéalement ils épuisent tous leur nb de cycles programmation/effacement maximum en même temps) et le garbage collection (un autre algo qui lui se charge d’effacer les pages qui ne sont plus valides).
Plus tu as d’OP et plus tu diminues le facteur d’amplification (rapport entre la quantité de données que l’OS a demandé à écrire et la quantité de données que le contrôleur va réellement écrire sur la nand) qui en temps normal est supérieur à 1 (le contrôleur écrit plus que ce que l’OS demande, entre autres à cause des algos de tout à l’heure).
Enfin je dis ça, ça a peut-être changé, j’ai pas suivi l’actualité des SSDs depuis longtemps. Et puis il y a des exceptions, genre les contrôleurs SandForce utilisait, la dernière fois que je m’étais renseigné, une technologie appelée DuraWrite qui compresse les données avant qu’elles ne soient écrites sur la nand et permettait de faire descendre le facteur d’amplification jusqu’à 0.5, et du coup l’OP a moins d’importance.
Bref, à une époque un but recherché par les nouveaux acheteurs de SSD était de rapprocher le facteur d’amplification le plus possible de 1 pour augmenter la durée de vie de l’engin qui avait coûté assez cher.
Et ce qui se disait, c’était que pour y arriver il fallait beaucoup d’OP.
D’où peut-être les 50%.
Ceci étant, si ça t’intéresse, une étude avait été publiée il y a quelques années.
En gros elle dit que la relation entre facteur d’amplification et pourcentage d’OP est assez complexe, il n’y a pas de pourcentage précis à atteindre.
Ça peut varier entre 10 et 50%, car ça dépend du type d’OP dont tu disposes (divisé en 2 pools : l’un pour les données statiques qui sont rarement modifiées, et l’autre pour les données fréquemment modifiées ; ou un seul pool) et du pourcentage de données statiques que tu stockes.
De toute façon, ces considérations n’ont sans doute plus beaucoup d’intérêt aujourd’hui pour une majorité d’utilisateurs, le prix des SSDs a largement baissé depuis, leur capacité a augmenté, les contrôleurs ont dû * s’améliorer et il est probable que tu renouvellerais ton SSD, si tu en achetais un aujourd’hui, bien avant d’avoir eu le temps d’user sa nand.
Après garder 10% d’espace libre sur ton SSD (en plus de l’OP que le constructeur prévoit en ne te donnant pas accès à toute la nand) ça peut pas faire de mal non plus.
* ou pas (ça dépend desquels, faut se renseigner avant d’acheter comme toujours).
Je pense que la vision est plus : 0 ligne de commande.
Enfin avec Ubuntu on y arrive. Même si j’ai acheter un portable Ubuntu où l’on a gentiment oublié de filer le mot de passe admin : pas de mise à jour, installer de nouvelle applis, pas possible de créer de nouveau compte, … bref une machine qui ne sert à rien en l’état. Et il y a bien qu’un geek pour s’en sortir sans réinstaller le système. Enfin, dans le cas là, c’est plus le vendeur qui est en faute, mais ça nuit à l’image du système.
Je sais pas si ça marchera mais au cas où tu peux essayer :
Tu maintiens la touche maj enfoncée au démarrage de la machine pour accéder au menu de grub, tu sélectionnes l’entrée qui t’intéresse dans le menu, touche e pour éditer, à la ligne linux qui indique où se trouve le kernel tu remplaces toutes les options qui lui sont données (ro quiet splash …) par un simple init=/bin/bash.
Ensuite tu démarres (ctrl + x), arrivé au prompt en root tu remontes la partition racine en lecture-écriture (mount -o remount,rw /), tu changes le mdp root avec passwd ou tu tentes de créer un utilisateur que tu mets dans les sudoers, tu démontes la partition racine et tu éteins la machine en maintenant le bouton power enfoncé (pas moyen de l’éteindre proprement à ma connaissance).
d’ailleurs, gpt c’est pas mal quand tu n’as qu’un seul disque et que tu veux un dual boot avec partoche système + données, tu ajoute le swap de linux et ça fait 5 partitions minimum(enfin 6 avec l’efi), impossible à mettre en place sans gpt.
Qu’est-ce qui empêche d’installer le swap et les données sur des partitions logiques ?
On peut parfaitement avoir un dual boot avec 5 partitions (en fait on peut même avoir autant d’OS qu’on veut en faisant du chain loading à partir de BOOTMGR) sur un disque utilisant un partitionnement mbr.
Je crois que tu as raté l’axe principal de la vidéo, vraiment.
Il insiste pourtant sur le fait que le prix de l’énergie ne change rien. Quand on n’a plus de ressource énergétique, tu peux toujours sortir tes dollars, il n’y en a plus à acheter " />
Au temps pour moi je voulais dire : forte hausse du coût pour inciter à faire des économies d’énergie. Les économies d’énergie étant une partie de la solution selon lui (et selon moi aussi " />).
raoudoudou a écrit :
L’argumentation principale de cette vidéo, c’est la décroissance!
Ok, ben je regarderais la vidéo plus avant alors. " />
Le
24/02/2013 à
19h
36
raoudoudou a écrit :
On n’a pas vu la même vidéo visiblement, mais discréditer des arguments qui n’ont rien à voir avec le nucléaire, sous prétexte que son auteur a fait des déclarations qui ne plaisent pas aux intégristes anti-nucléaire*, c’est pas mal non plus " />
*dans la vidéo, sa position officielle est: c’est la moins pire des énergies, mais de toutes façons, ça ne résoudra pas le problème, c’est hors contexte.
Tout le monde sent/sait bien depuis longtemps qu’on va avoir un problème avec l’énergie, tout comme le climat et la surpopulation.
Le diagnostic on l’a, maintenant ce qui serait vraiment intéressant c’est qu’on nous propose des solutions.
Que propose-t-il concrètement dans la vidéo ?
Je me suis arrêté au bout d’une demi-heure, l’ayant déjà écouté à de nombreuses reprises - toujours avec grand intérêt " /> car on sent qu’il maîtrise très bien son sujet et qu’il sait bien vulgariser pour le pékin moyen que je suis - mais là j’ai eu le sentiment qu’il n’aborderait pas plus que les autres fois les solutions à envisager.
De ce que j’ai lu, il semblerait que ce soit : développement du nucléaire et forte hausse du coût de l’énergie.
Si la deuxième partie de la solution semble inévitable, à moins que des découvertes scientifiques dans les prochaines décennies ne viennent tout changer, et/ou que l’on augmente énormément notre efficacité énergétique, la première me laisse plus perplexe en tout cas ça mériterait un débat avec d’autres experts connaissant aussi bien le sujet que lui mais ayant d’autres points de vue pour se faire une meilleure idée (à moins qu’il n’y en ait pas et qu’ils soient tous du même avis auquel cas il a raison sur toute la ligne " />)
Sur son site, il y a un long article où il défend très bien le nucléaire civil, en démontant point par point tout ce qu’on peut lui reprocher, mais certains passages sont limites choquants, et je te garantis que je ne suis pas un intégriste anti-nucléaire, j’ai même plutôt été pro-nucléaire pendant longtemps, jusqu’à l’accident de Fukushima … depuis je me pose plus de questions.
Je me suis toujours demandé pourquoi dans les émissions tv/radio/conférences où il est régulièrement invité, il ne présentait le futur que de manière sombre sans proposer réellement de solutions. En lisant la page wikipedia qui lui est consacrée, je crois que j’ai une petite idée sur la question :
Il affirme donc qu’« une augmentation de la température moyenne de quelques degrés sur un siècle aura des conséquences infiniment plus graves que la destruction d’une centrale nucléaire de temps en temps » (L’Expansion, juillet-août 201119). Le directeur de la sûreté nucléaire à l’AIEA, Morris Rosen, ne disait rien de différent peu après la catastrophe de Tchernobyl : « Même s’il y avait un accident de ce type tous les ans, je considérerais le nucléaire comme une source d’énergie intéressante » (Le Monde, 28 août 1986)
Même s’ils ont raison, à supposer qu’on puisse avoir “raison” sur un sujet pareil, ce ne sera pas facile à vendre auprès de l’opinion publique après Tchernobyl et Fukushima, surtout en France avec les écologistes.
L’autre solution qu’il propose consiste à réaliser d’importantes économies d’énergie incitées via une forte hausse de leur coût.
Je serais curieux de voir un homme politique qui se présente aux présidentielles tenir un discours de vérité à base de : On ne sortira pas du nucléaire, au besoin on va même construire davantage de centrales, il est possible qu’une fois de temps en temps il y en ait une qui explose, et je vais augmenter drastiquement le prix du pétrole/gaz/électricité … Votez pour moi " />
AMHA ce ne sont pas des autruches, ils pensent juste qu’à l’heure actuelle ils n’auraient aucune chance d’être élus avec ce type de discours. " />
C’est fini l’époque ou c’était difficile quand même :p
(Mieux ;) )
Mais dans ce cas il faut que tu le maintiennes toi-même par la suite contrairement à un noyau téléchargé dans les dépôts officiels, concrètement ça se passe comment au niveau des mises à jour de sécurité ? Il faut s’abonner à une mailing list pour se tenir informé, récupérer un patch de sécurité dès qu’il y en a un et recompiler le noyau ?
Et comparé à un kernel des dépôts officiels (qui est je crois déjà customisé pour s’adapter au mieux à la distrib’) on peut facilement atteindre le même niveau de stabilité/performances ou pas ?
Il est configuré chez moi pour bloquer entre autre tous les cookies présents dans ses options (à part disqus pour pouvoir afficher correctement les commentaires sur certains sites) ainsi que les 3pes et il ne m’empêche pas de regarder des vidéos sur Dailymotion.
HarmattanBlow a écrit :
Du moins tant que les sites ne choisiront pas de bloquer les utilisateurs qui y ont recours.
Si je ne m’abuse c’est la raison qui fait que je ne peux lire aucune vidéo sur Dailymotion (ça ou Noscript qui bloque le js d’un site de pub/tracking/etc).
Ça vient peut-être de Noscript, perso j’ai dû autoriser les scripts en provenance de dailymotion.com ainsi que ceux de dmcdn.net (l’un sans l’autre et pas de vidéos).
Et contrairement à addthis.com et criteo.com, dont les scripts tournent sur dailymotion, je ne crois pas que dmcdn.net soit un site de tracking ou de pub, en tout cas pas d’après les infos fournis sur le site par noscript.
D’ailleurs, vraie question, dmcdn c’est pas un acronyme pour DailyMotion Content Delivery Network ? Auquel cas ce serait tout simplement un réseau de serveurs appartenant à dailymotion pour diffuser ses vidéos.
Je suppose que la mesure viserait le p2p, mais comment l’infraction qui se base sur l’ip pourrait être constatée de manière fiable si demain il se développe sur des réseaux type Freenet ?
A moins d’interdire purement et simplement ce type de réseaux, ce qui n’est pas exclu par le faq du site :
Is Freenet legal?
We don’t currently know of any prosecutions for using merely using Freenet. Some people claim that the DADVSI makes Freenet illegal in France …
Sur ce, je ne sais toujours pas comment DL mes fichiers avec FireFox sur MEGA…" />
Je ne sais pas exactement quel problème tu as mais ça pourra peut-être le résoudre (ou pas " />) :
au lieu de cliquer sur ‘Download’ clique sur ‘Import’, puis clic-droit sur le fichier, dans le menu qui s’affiche clique sur ‘Download’, une fois le dl terminé clique sur le bouton ‘save file’ qui devrait prendre la place de la barre de dl (dans la colonne ‘Status’ en bas), et pour finir choisis l’endroit où tu souhaites sauvegarder le fichier.
Essaie également de voir si le pb ne vient pas d’un addon (fais un test sans) et si flash est à jour.
Ok je comprends mieux, c’est pas du brute force bête et méchant. " />
jimmy_36 a écrit :
La faille se trouve dans la méthode de génération de la clé pour AES.
Tu parles de la Master Key ou de la clé RSA ?
Faith a écrit :
En informatique, il me semble qu’il n’y a pas d’algorithme “sur”. Il n’y a que des algorithmes “suffisamment sûrs”.
J’ai lu qu’une condition nécessaire pour qu’un algo de chiffrement soit ‘parfait’ (c’est à dire : l’interception du message chiffré ne révèle rien sur la clé et sur le message en clair) était que l’espace des clés soit plus grand que l’espace des messages (autrement dit il faudrait qu’il y ait plus de clés que l’on puisse utiliser pour chiffrer qu’il n’y a de messages possibles à chiffrer), ce qui rendait tout algo ‘parfait’ inutilisable en pratique.
Au passage si quelqu’un pouvait m’expliquer pourquoi. " /> (Parce que plus on chiffre des fichiers volumineux plus la taille de la clé doit être grande ce qui devient trop long passé une certaine taille ?)
Je crois que le mieux que l’on puisse à faire c’est montrer que casser l’algo (p.ex. RSA) est équivalent à résoudre un problème mathématique que l’on sait être très difficile …
jimmy_36 a écrit :
Non , les initialisations à base de phénomène physiques comme un mouvement de souris sont connues depuis longtemps comme très peu discriminante. Ce n’est pas nouveau, il est possible d’affirmer qu’il y a des failles avec cette technique.
Mais quand on utilise gpg pour créer une clé primaire (gpg –gen-key), il utilise aussi les mouvements de la souris pour aider à générer des valeurs aléatoires.
Pourtant gpg est considéré comme sûr, en quoi est-ce différent ?
C’est parce que gpg utilise autre chose en plus des mouvements de la souris, comme p.ex. toute autre activité présente sur l’OS (genre le fait de lancer la lecture d’un mp3 …) ?
Le
20/01/2013 à
21h
45
unCaillou a écrit :
Sauf si le serveur conserve une empreinte du mot de passe, comme le fait tout site web classique pour valider la connexion au compte.
Je pense pas qu’à chaque connexion à ton compte mega il faille parcourir la chaine de déchiffrage que tu viens de décrire juste pour t’authentifier.
Plus le temps d’éditer, mais de toute façon, à chaque tentative tu ne testes pas le simple hash d’un mdp, tu es obligé de procéder à plusieurs déchiffrements et calcul d’empreinte ce qui a un coût en puissance de calcul et en temps non négligeable, je ne suis vraiment pas sûr que ce soit réalisable par brute force (sur de gros fichiers sûrement pas).
Et puis il y a d’autres moyens d’obtenir ce que l’on veut avec genre de services :
But can the feds force Hushmail to modify the Java applet sent to a particular user, which could then capture and sends the user’s passphrase to Hushmail, then to the government?
Hushmail’s own threat matrix includes this possibility, saying that if an attacker got into Hushmail’s servers, they could compromise an account — but that “evidence of the attack” (presumably the rogue Java applet) could be found on the user’s computer.
Le
20/01/2013 à
21h
26
unCaillou a écrit :
Sauf si le serveur conserve une empreinte du mot de passe, comme le fait tout site web classique pour valider la connexion au compte.
Je pense pas qu’à chaque connexion à ton compte mega il faille parcourir la chaine de déchiffrage que tu viens de décrire juste pour t’authentifier.
Effectivement, si le serveur conserve l’empreinte du mdp c’est déjà plus facile : enfin à condition d’avoir un dump de sa base de données et des fichiers qui t’intéressent parce que comme le rappelle psn00ps les services en ligne ne permettent qu’un nombre limité de tentatives (après c’est du DDoS).
Le
20/01/2013 à
21h
19
Lanthares a écrit :
En admettant que tout ce processus puisse être répété 350 milliards de fois par seconde, il faudrait tout de même 1.6 * 10^22 années pour tester toutes les possibilités.
" />
Le
20/01/2013 à
21h
08
cyrano2 a écrit :
Le salage est une évidence. Mais il reste toujours le brute force. Quand on peut testé 350 milliards de combinaison par seconde, pas besoin de rainbow table. Un mot de passe de 8 caractères se cassent en quelques heures.
Je ne suis pas sûr de comprendre.
Admettons que je sois Mme Michu je veux m’inscrire sur le site de Mega, je prends tout naturellement comme login “michu” et comme mdp le nom de mon chat (felix) suivi de mon année de naissance (1970) soit “Felix1970”.
J’ignore quelle fonction de hachage utilise Mega pour générer la clé qui va lui servir à chiffrer la Master Key, mettons que ce soit du sha-1 (qui n’est plus considéré comme sûr depuis 2010 d’après Wikipedia, mais on peut faire mieux sha-256, sha-512 …).
Le hash issu de la concaténation du login et du mdp, “michufelix1970”, est dans le cas présent : “18e8711db72dcd4ee5f440441ccda1f80cad776e”.
Pour déchiffrer un fichier stocké par brute force, il faudra pour chaque suite de 14 caractères alphanumériques (soit environ 1.8 * 10^41 possibilités) :
calculer l’empreinte SHA-1, utiliser le résultat pour déchiffrer la Master Key, utiliser la Master Key pour déchiffrer la clé AES, utiliser la clé AES pour déchiffrer le fichier.
En admettant que tout ce processus ne prenne qu’une seconde, il faudrait tout de même 5.7 * 10^33 années pour tester toutes les possibilités.
Sauf que là il ne s’agit pas d’un mot de passe en clair mais du hash du login et du mdp associé :
L’ensemble des clefs est stocké au sein de votre compte sur les serveurs de MEGA mais protégé par une clef principale (Master key). Elle-même est chiffrée, sa clef étant une empreinte (hash) calculée à l’aide de votre login et de votre mot de passe.
À la rigueur s’il n’y avait que le hash du mdp de stocké on pourrait tjrs tenter de trouver le mdp via une attaque par rainbow table, mais si on y ajoute le login ça fait office de clé de salage.
Le
20/01/2013 à
14h
44
cyrano2 a écrit :
SI la clef privée est stoqué sur les serveurs de mega, et simplement protégé par un login/passwd, le passwd a intérêt à être maouss.
Une machine blindé de gpu peut faire des centaines de millions de test par second, ce qui revient qu’un password avec moins de 2^100 possibilité est vulnérable aux attaques en force brute. Un tel mot de passe doit comporter plus de 25 caractères complètement aléatoires. Ici on explique comment le vrai calcul d’entropy est fait :
Ce que j’ai finalement compris du fonctionnement du bouzin :
A chaque fois que tu upload un fichier une clé AES 128 bits est générée aléatoirement côté client. La clé chiffre le fichier et les deux sont ensuite envoyés sur un serveur de Mega, la clé ayant été au préalable chiffrée avec une Master Key, qui contrairement à ce que certains croyaient au départ, dont moi " />, n’a rien à voir avec la clé RSA 2048 bits : elle, c’est pour sécuriser les échanges dixit David :
David_L a écrit :
J’ai déjà tout détaillé dans le dossier, c’est du symétrique la plupart du temps. (Asymétrique juste pour les échanges).
Enfin la Master Key est chiffrée avec un algo symétrique utilisant comme passphrase un hash issu de la concaténation du login et du mdp, avant d’être envoyée sur un serveur de Mega. Le login servant de clé de salage, il n’y a pas d’attaque par force brute/rainbow table possible.
Au final Mega a :
les fichiers chiffrés avec des clés AES 128 bits
les clés AES chiffrées avec la Master Key
la Master Key chiffrée avec un algo symétrique (lequel ?) utilisant comme passphrase le hash de login&mdp.
Le
20/01/2013 à
01h
01
Ça en a tout l’air, faut dire qu’avec 250 000 inscriptions en quelques heures, y’a de quoi.
Le
19/01/2013 à
20h
59
Chez moi ça a l’air de marcher, je dl au max de ma bande passante (chez ovh).
Le
19/01/2013 à
03h
36
non en fait rien, je vais attendre plus d’infos. " />
Le
18/01/2013 à
23h
12
David_L a écrit :
Je fais un gros dodo, et on en reparle " /> " />
De toute façon j’ai dû tout comprendre de travers. " />
224 commentaires
423ème édition des LIDD : Liens Idiots Du Dimanche
30/03/2013
Le 30/03/2013 à 23h 25
Rage Compilation - Call of Duty European Championships - Eurogamer
Des joueurs de CoD qui s’insultent pendant un tournoi.
Le dernier benzaie sur le coffret collector de Bioshock Infinite.
Selon lui le coffret n’est pas terrible.
World’s Roundest Object! Redefining The Kilogram
Vidéo qui explique le projet Avogadro dont le but est de redéfinir le kilogramme.
Apparemment ce dernier serait la seule unité du système SI qui serait encore définie par un objet physique appelé IPK (International Prototype Kilogram).
Le hic c’est qu’on se serait aperçu que sa masse varie au cours du temps sans savoir exactement pourquoi ; donc, pour avoir une définition plus précise, certains scientitiques cherchent à redéfinir dans un premier temps la constante d’Avogadro ce qui se ferait par la création d’une sphère de silicium d’un kilogramme et d’une dizaine de centimètres de diamètre, quasi parfaite : si elle était rapportée à l’échelle de la terre, l’écart entre la plus haute montagne et la vallée la plus basse serait de 14m (?). Ils calculeraient ensuite le nb d’atomes présents dans la sphère pour fixer la constante d’Avogadro, qui actuellement dépend de la définition du kilogramme, et se serviraient du résultat pour redéfinir le kilogramme, à savoir la masse de x atomes de silicium 28 (x étant le nb calculé précédemment).
Arnaque au distributeur de boissons - Roboarna
Un robot construit pour aller chercher/tipiak des canettes dans les distributeurs de boissons.
Forward
Un clip d’un type qui se promène en ville à reculons ; la vidéo est montée en sens inverse pour donner l’impression qu’il marche normalement tandis que tout autour de lui se déplace à l’envers.
The First Honest Cable Company
Une pub parodique pour un pseudo FAI américain.
Voice Over
Court-métrage.
Derniers trailers de films d’auteurs confidentiels à messages engagés et petits budgets qui sortent dans les prochains mois :
World War Z
Brad Pitt et des hordes de zombies.
Mister Go
Un gorille qui devient une star du baseball.
Le dernier Wolverine.
Hugh Jackman vs des ninjas et des samouraïs.
422ème édition des LIDD : Liens Idiots Du Dimanche
23/03/2013
Le 24/03/2013 à 13h 56
Une nouvelle série bientôt sur arte : Real Humans.
Le 24/03/2013 à 10h 04
Fabriquer son internet
Dites au W3C : nous ne voulons pas d’un Hollyweb.
Samsung confirme le développement d’une montre intelligente
19/03/2013
Le 19/03/2013 à 11h 26
Valve étoffe ses statistiques sur Steam à propos de Linux
18/03/2013
Le 18/03/2013 à 23h 11
Le 18/03/2013 à 21h 52
Le 18/03/2013 à 20h 47
Le 18/03/2013 à 20h 40
Le 18/03/2013 à 20h 28
Le 18/03/2013 à 19h 05
Google chasse les anti-pubs du Play Store sur Android
14/03/2013
Le 14/03/2013 à 17h 05
Mots de passe : une députée veut une sensibilisation des Français
13/03/2013
Le 13/03/2013 à 09h 48
Le 13/03/2013 à 09h 39
La domination et la centralisation, les ennemis numéro un du web
09/03/2013
Le 10/03/2013 à 14h 39
Le 10/03/2013 à 13h 24
Le 10/03/2013 à 11h 56
Le 09/03/2013 à 19h 25
Le 09/03/2013 à 14h 35
420ème édition des LIDD : Liens Idiots Du Dimanche
09/03/2013
Le 10/03/2013 à 13h 00
Le 10/03/2013 à 12h 43
La dernière vidéo de what the cut.
Vous êtes plutôt disque dur ou SSD ?
08/03/2013
Le 09/03/2013 à 07h 07
Le 09/03/2013 à 06h 04
Le 08/03/2013 à 19h 51
Le 08/03/2013 à 16h 55
Pour Mark Shuttleworth (Canonical), Linux doit voir plus loin que les geeks
08/03/2013
Le 08/03/2013 à 17h 42
Linus Torvalds en colère face au problème du Secure Boot
27/02/2013
Le 27/02/2013 à 17h 18
418ème édition des LIDD : Liens Idiots Du Dimanche
23/02/2013
Le 24/02/2013 à 19h 58
Le 24/02/2013 à 19h 36
Le 24/02/2013 à 17h 01
On a testé : installer Ubuntu sur une tablette Nexus 7 de Google
22/02/2013
Le 22/02/2013 à 10h 29
Linux 3.8 se débarrasse de l’antique architecture i386
20/02/2013
Le 20/02/2013 à 18h 40
Facebook songe bien à intégrer de la publicité vidéo dans votre flux
19/02/2013
Le 19/02/2013 à 14h 59
Un concours Seagate vire au drame, des dizaines de portables torturés
09/02/2013
Le 09/02/2013 à 12h 54
Ben maintenant ils vont marcher beaucoup moins bien forcément ! " />
Amazon : 59 € pour une liseuse Kindle, mais aujourd’hui seulement
04/02/2013
Le 04/02/2013 à 10h 47
On peut également installer à côté du firmware officiel un firmware alternatif (Duokan) qui lit nativement les epubs.
Hadopi : Marielle Gallo prône « l’amende sans avertissement, sans e-mail »
30/01/2013
Le 30/01/2013 à 09h 41
Je suppose que la mesure viserait le p2p, mais comment l’infraction qui se base sur l’ip pourrait être constatée de manière fiable si demain il se développe sur des réseaux type Freenet ?
A moins d’interdire purement et simplement ce type de réseaux, ce qui n’est pas exclu par le faq du site :
Is Freenet legal?
We don’t currently know of any prosecutions for using merely using Freenet. Some people claim that the DADVSI makes Freenet illegal in France …
Mega : « on veut faire évoluer le modèle de rémunération des créateurs »
29/01/2013
Le 29/01/2013 à 23h 37
Une rumeur envoie Stéphane Richard (Orange) vers Veolia
21/01/2013
Le 21/01/2013 à 20h 10
Un peu HS mais il a confirmé sur BFM Business qu’Orange faisait bien payer Google.
[MàJ] [Dossier PCi] MEGA, le nouveau service de stockage de Kim Dotcom
19/01/2013
Le 21/01/2013 à 15h 49
Le 20/01/2013 à 21h 45
Le 20/01/2013 à 21h 26
Le 20/01/2013 à 21h 19
Le 20/01/2013 à 21h 08
Le 20/01/2013 à 20h 10
Le 20/01/2013 à 14h 44
Le 20/01/2013 à 01h 01
Ça en a tout l’air, faut dire qu’avec 250 000 inscriptions en quelques heures, y’a de quoi.
Le 19/01/2013 à 20h 59
Chez moi ça a l’air de marcher, je dl au max de ma bande passante (chez ovh).
Le 19/01/2013 à 03h 36
non en fait rien, je vais attendre plus d’infos. " />
Le 18/01/2013 à 23h 12
413ème édition des LIDD : Liens Idiots Du Dimanche
19/01/2013
Le 20/01/2013 à 17h 25
MLK’s “I Have a Dream” speech is copyrighted. Share it anyway.
Avec la TV connectée, tout le monde devra s’adapter au changement
19/01/2013
Le 19/01/2013 à 21h 41