votre avatar

vampire7

est avec nous depuis le 19 janvier 2007 ❤️

1471 commentaires

Le 13/05/2014 à 12h 32







sksbir a écrit :



Parce que dans 20 ans, les voitures robotisées seront certainement opérationnelles sur le plan technique, et il en sera du chauffeur de taxi comme du conducteur de rames de métro. Reste à savoir comment la société va évoluer pour intégrer cette évolution.





Facile : tu prends ton Iphone (version 27 ou + requise), tu prononces “Je veux un taxi”, et 5 min plus tard tu as ton Google Taxi à tes pieds.

Google t’amène là où tu veux, et c’est tout. La facturation du trajet est instantanée, puisque Google a obtenu de ton Iphone tes références bancaires.


Le 12/05/2014 à 22h 03







RoroGeek a écrit :



Pas encore assez de nouveauté, et on est 50 milliards (au moins) à attendre un CPU sans iGPU pourri et 2 cores de plus, le tout sans vendre l’intégralité de ses organes !







  • 1 50 milliards <img data-src=" />


Le 12/05/2014 à 21h 37







HarmattanBlow a écrit :



Je hais la pub.



Mais j’aime Firefox et sa dépendance à Google est très préoccupante et explique sans doute certains choix laxistes vis-à-vis de la vie privée, par exemple les reculs sur la politique de gestion des cookies.





Ils ont pourtant ajouté 3 options dans la versions 28 pour la gestion du referer :



// false=real referer, true=spoof referer (use target URI as referer)

pref(“network.http.referer.spoofSource”, false);

// 0=full URI, 1=scheme+host+port+path, 2=scheme+host+port

pref(“network.http.referer.trimmingPolicy”, 0);

// 0=always send, 1=send iff base domains match, 2=send iff hosts match

pref(“network.http.referer.XOriginPolicy”, 0);


Le 12/05/2014 à 16h 43







Liam a écrit :



Ceux qui ne sont pas d’accord avec moi quand je dis que la majorité des gens ne réfléchissent pas à leurs actes, surtout quand ceux-ci leur procurent une satisfaction immédiate ? Oui je maintiens : faut être naïf ou hypocrite pour prétendre le contraire.





Donc tu maintiens ton insulte. Difficile de discuter du fond dans ces conditions.



J’ajouterais que je ne suis même pas d’accord sur le fond. Le fait que la plupart des gens installant Adblock le fassent en premier par confort n’empêche pas d’y réfléchir par la suite. Il est d’ailleurs beaucoup plus facile de réfléchir quand on n’a pas le cerveau constamment sollicité par plein d’images clignotantes ou aux couleurs criardes…

Et personnellement, je suis plus intéressé par la santé mentale d’un milliard d’internautes que par les quelques milliers de webmasters qui se retrouveront au chômage, quitte à réduire un peu les sources d’information, information pour laquelle je ne crois pas en l’indépendance.


Le 12/05/2014 à 15h 29







Liam a écrit :



C’est pas une insulte que de dire que quelqu’un est hypocrite ou naïf quand il prétend que les gens bloquent les pubs décident en leur âme et conscience après avoir réfléchi au sujet. Parce que pour l’immense majorité c’est juste faux.



Désolé, mais si, les gens qui bloquent les pubs, comme ceux qui piratent, sont pour la majorité des brebis écervelées, et oui, il faut être naïf ou hypocrite pour dire le contraire.



Parce que si tu as deux ronds de bon sens, tu sais aussi bien que moi que les gens, pour la plupart, ne se posent jamais de questions philosophiques sur les avantages et les inconvénients d’une solution qui procure une satisfaction immédiate. On leur donne, ils prennent, point. Si c’est pas un comportement de brebis écervelée, je sais pas ce que c’est.





Comme c’est curieux… Ceux qui n’ont pas la même opinion que toi sont donc soit des hypocrites, soit des naïfs, soit des brebis écervelées… <img data-src=" />


Le 08/05/2014 à 16h 09







Liam a écrit :



L’archétype du connard de base. <img data-src=" /> Le pire n’étant même pas que tu le fasses, mais qu’en plus tu t’en vantes.





Tiens, l’insulte c’est autorisé quand on est abonné ? Ce serait bon de le signaler : ça pourrait en pousser un bon paquet à s’abonner… <img data-src=" />



Et au passage, le fait de refuser tout compromis, ce n’est pas “se vanter”.


Le 08/05/2014 à 12h 02







Yzokras a écrit :



Je n’arrive pas à trouver la liste, NXI peut-il nous donner le lien ? merci beaucoup je vous aime





J’ai donné le lien au com’ #49. Dans la page, il n’y a qu’à cliquer sur “Add Adblock Warning Removal List to Adblock Plus”. Ça marche même avec Adblock Edge.


Le 07/05/2014 à 17h 49

Et hop, Adblock Warning Removal List ajouté. Merci Next INpact (au passage, j’en ai profité pour ajouter EasyPrivacy).

Le 11/05/2014 à 15h 39







Obidoub a écrit :



En même temps un CPU ça claque pas souvent.

Dans toute ma carrière j’ai jamais vu de CPU HS c’est toujours la mobo qui lâche…





Moi j’en ai eu un : un Pentium 4 Prescott. Même en étant non overclocké et refroidi par watercooling (pour le silence), il a commencé à produire des erreurs après environ 3 ans.



Mais à part ça, c’est vrai que c’est rarement un composant qui claque, tant qu’on ne s’amuse pas à pousser les tensions pour de l’overclock.


Le 07/05/2014 à 12h 27







Bejarid a écrit :



Mais bon, il parait que je suis ignare… Sérieusement, tant de bêtises dans ces commentaires ! La GDDR5 n’est pas basé sur la DDR3, c’est n’importe quoi, vous sortez ça d’où ?! La GDDR5 est basé sur la DDR5, mais cette dernière n’est pas encore assez mature pour être utilisé comme mémoire vive central (rendement de merde, problème de latence et de fiabilité, etc.). Tout comme la DDR4, même si cette dernière est bien plus avancé (et pourrait arriver dès la fin de l’année si les fabricant s’y mettent sérieusement).





C’est terrible ces amateurs qui écrivent dans Wikipedia…

GDDR5 :

“Like its predecessor, GDDR4, GDDR5 is based on DDR3 SDRAM memory which has double the data lines compared to DDR2 SDRAM, but GDDR5 also has 8-bit wide prefetch buffers similar to GDDR4.”



Quant à la GDDR4 :

“GDDR4 is based on DDR3 SDRAM technology and was intended to replace the DDR2-based GDDR3, but it ended up being replaced by GDDR5 within a year.”



Mais comme Wikipedia c’est pas top comme référence, on attend tes sources.


Le 05/05/2014 à 16h 32







Reznor26 a écrit :



Je te dis juste que tout lecteur un tant soit peu intelligent lit et comprend les limites de l’exercice parce qu’elles sont parfaitement détaillées par HFR en introduction. Mais si tu penses que ces limites enlèvent de fait toute valeur au dossier, grand bien t’en fasse, tu fermes l’onglet et tu vas prendre l’air.





J’irai prendre l’air si je veux. <img data-src=" />

C’est pas à moi qu’il faut dire de lire l’intro. La plupart des gens (y compris ceux qui postent ici) se contentent de regarder les pourcentages pour juger une marque, et considèrent ces chiffres comme suffisants pour se faire un avis définitif.

Ces chiffres seuls n’indiquent pas grand-chose, c’est un fait, et c’est confirmé par la longue et ennuyeuse intro de l’article. Le problème est qu’ils sont quand même publiés, seuls.


Le 05/05/2014 à 16h 15







Reznor26 a écrit :



Tu devrais lire l’introduction du dossier qui est tout à fait détaillée et honnête par rapport aux conditions et aux limites de l’exercice, on est loin de ta caricature.





Quelle caricature ? Et pourquoi tu ne commencerais pas par appliquer ton propre conseil ?



Seasonic en dernier, ça prouve que ces chiffres n’indiquent pas grand-chose, non que Seasonic c’est de la merde. D’ailleurs, si ça l’était, pourquoi LDLC s’obstinerait à utiliser des Seasonic rebadgées pour leurs propres alims ?


Le 05/05/2014 à 16h 07







maestro321 a écrit :



T’as un site qui propose ce genre de stats?



A part ça, tu fais comment pour avoir un retour à long terme sur un produit qui sera en vente seulement 6-12 mois?





Evidemment, on ne peut pas connaitre la tenue à long terme des produits actuels. Raison de plus pour ne pas juger une marque sur ce genre de taux de retour : si on s’en tient à ces chiffres, Seagate seraient les meilleurs. Mais si on regarde ici, ce n’est plus vraiment le cas.


Le 05/05/2014 à 15h 48







Reznor26 a écrit :



Seasonic en dernier pour les alims… la classe <img data-src=" />





Et Seagate en premier pour les disques durs : pas mieux.

Le problème est qu’il ne s’agit que des pannes (et encore, quand ça en est) au déballage, retournées à LDLC. Mais ces chiffres n’indiquent rien sur la tenu à long terme. Et là, faut chercher ailleurs.



Et en plus aujourd’hui, LDLC… Faut pas être bien malin pour commander chez eux, tellement ils sont chers avec des emballages qui ne protègent rien…


Le 05/05/2014 à 15h 25







mimoza a écrit :



Et les réparation pour la clientes ? C’est juste une illusion ? Être interdit bancaire est une vrai galère au quotidient, pas de chèque, pas de CB, pas de crédit, pas de découvert … rien quoi. Et même si tu trouve un boulot va faire comprendre a ton employeur qu’il faut te payer en liquide <img data-src=" />



J’espère sincèrement que la cliente va être dédomagé à la hauteur de la gêne, mais ça on peut toujours rêvé <img data-src=" />





Etre fiché au FICP n’a rien à voir avec être interdit bancaire.


Le 05/05/2014 à 14h 59

Ah, Cetelem… Le problème avec ce genre de boîte est qu’ils encaissent très rapidement les chèques de remboursement anticipé d’un crédit, mais ont beaucoup de mal à lire les lettres de résiliation qui les accompagnent…

Le 04/05/2014 à 00h 14







Tranxen79 a écrit :



Je rêve, ils font leur démo sous win XP qui n’est plus supporté. Bonjour la publicité pour vista, seven et 8…





Oui effectivement, tu rêves : boutons de la barre des tâches carrés, pas de menu Démarrer… Et la fenêtre à 3:36 a un style un peu plat pour XP…


Le 01/05/2014 à 12h 24

C’est facile d’avoir un milliard de couleur sur du TN : il n’y a qu’à bouger un peu la tête, et hop, on a plein de couleurs différentes ! <img data-src=" />

Le 29/04/2014 à 21h 32







jeje07 a écrit :



on peut parfaitement ajouter des séparateurs entre les boutons…..



avant de raler poses toi la question de savoir si le problème ne vient pas de l’interface chaise / clavier





Ah ben alors l’auteur de Classic Theme Restorer n’a pas trouvé non plus, puisque ça fait partie des fonctionnalités proposées par l’extension (“Separators”)…


Le 29/04/2014 à 21h 09







Patch a écrit :



je viens de trouver Tabs on bottom pour remettre les onglets dessous <img data-src=" />





Finalement, j’ai plutôt opté pour Classic Theme Restorer, vu que ça corrige en même temps les autres régressions.


Le 29/04/2014 à 15h 43







Muzikals a écrit :



A mon avis, y’a plus simple avec un paramètre dans about:config, encore fait-il savoir lequel ^^ Je vais pas installer un add-on juste pour ça :)





Le paramètre qui existait s’appelait “browser.tabs.onTop”. Il n’est maintenant plus pris en compte, même si tu le recrées.


Le 29/04/2014 à 15h 21



L’utilisateur entre alors dans ce nouveau mode qui permet de changer de nombreux éléments de place.



C’est une blague ? On ne peut plus mettre les onglets sous la barre d’adresse (un truc de base), ni même mettre où on veut les boutons de navigation (précédent, suivant, arrêter/recharger). Même l’extension Tab Mix Plus ne permet plus d’arranger ça.

On ne peut même plus ajouter de simples séparateurs entre les boutons qu’on ajoute ! Les miens sont encore en place, j’ai peur de les supprimer par mégarde…

Le 25/04/2014 à 18h 48







Daikyoka a écrit :



Au contraire, il vaut mieux mutualiser des disques durs que d’utiliser du SSD car le fait d’être continuellement en lecture/écriture sur les mêmes cases le flinguerait en un rien de temps.





Comment ça “sur les mêmes cases” ? Le wear leveling est justement destiné à réduire ce problème.

Bien sûr, c’est toujours limité en écriture, mais quand même beaucoup moins.


Le 23/04/2014 à 16h 43







v1nce a écrit :



Tu fais partie de “la communauté artistique” ? Non ? Alors tu peux aller te faire voir.





Alors il est temps de se mobiliser pour faire reconnaître la programmation comme le 1337ème art. <img data-src=" />


Le 23/04/2014 à 14h 54

Donc quand on publie un logiciel dans le domaine public, ça veut dire qu’on va pouvoir demander une taxe ? <img data-src=" />

Le 22/04/2014 à 10h 41







raoudoudou a écrit :



Non, n’importe quel adepte de la musculation te dira qu’il fait des cycles de prise de masse et qu’il se fait une “sèche” quand il accumule trop* de gras. Le débutant va surtout perdre de l’eau, éventuellement du gras si il ne mange pas assez. Il ne faut pas confondre augmentation des performances et prise de masse. Un débutant va facilement augmenter ses performances, mais ce n’est pas pour autant qu’il aura pris de la masse musculaire.



Pour perdre le gras, il faut que le corps soit en état de cétose. Et en état de cétose, on ne prend pas de muscle, puisqu’on est en déficit de nutriments, c’est pourtant pas compliqué à comprendre, mais les mythes ont la vie dure et c’est pour ça que la plupart des débutants en muscu abandonnent vite, entre autres, parce qu’ils demandent la lune et ne sont pas patients <img data-src=" />



*trop, ça veut dire comme un mec normal, pas comme gégé du macumba <img data-src=" />





Perdu. La cétose représente seulement un déficit en glucides.



Tu as parlé toi-même de déprime lors d’un régime. Ça peut effectivement survenir avec un manque de certains nutriments. Bah désolé mais je déprimais plus facilement quand je mangeais n’importe quoi qu’aujourd’hui lors d’une diète, parce qu’aujourd’hui je contrôle chacun de mes nutriments (en fait, j’ai une autre raison de le faire).


Le 21/04/2014 à 18h 36







raoudoudou a écrit :



Y a pas de “si tu perds du muscle”.



Quand tu maigris, tu perds du muscle, toujours.





Et pour quelle raison ?

Je n’en vois que 2 : soit les muscles ne sont pas suffisamment sollicités (mais si t’es pas en forme pendant un régime, là aussi, il y a un problème), soit ils ne reçoivent pas les nutriments dont ils ont besoin (ce qui signifie une carence, donc une mauvaise alimentation).



Accessoirement, n’importe quel adepte de musculation te dira qu’il est tout-à-fait possible de prendre du muscle tout en perdant de la graisse si on est débutant dans le domaine. J’ai moi-même pratiqué à petite dose, et pendant plusieurs mois, mes performances ont augmenté alors que mon poids diminuait, y compris sur des exercices non affectés par le poids du corps. Avec une fonte musculaire, ça n’aurait pas été possible.


Le 21/04/2014 à 14h 29







Haemy a écrit :



Par exemple moi en surpoids, je bouffait toute la journée que des conneries et du jour au lendemain, j’ai fais un régime en ne mangeant qu’un bout de pain avec la moitié d’une tranche de jambon ( ca fait quoi 500 calorie par repas) midi et soir et le matin 2 biscuit ( 220 calorie ) avec un gros verre d’eau chaude, on va dire 1300 calorie par jour en gros. Le tout avec de la course à pied.



Résultat: 3 kilos par semaine en moins.





Rien de surprenant. Vu ta description, tu as perdu de l’eau à toute vitesse, et probablement pas mal de kg de muscle également : une tranche de jambon, ça fait un peu léger pour couvrir les 60g de protéines par jour requises… Avec le reste, tu dois arriver aux alentours de 15g de protéines par jour : c’est exactement ce que j’appelle se ruiner la santé.

Au passage, tu confonds calories et kilo-calories.


Le 21/04/2014 à 14h 05







js2082 a écrit :



<img data-src=" />

ô les grosses bêtises et informations fausses et erronées …



2500 kcal par jour, ça nous donne pas du 9000 kcal par semaine hein… <img data-src=" />

Pour perdre un kilo de graisses, il faut faire un déficit de calories de 1300 kcal par jour. Il suffit de faire 1h30 de course à pied par jour (pour un homme de 85kg) pour dépenser ces 1300kcal, tout en mangeant normalement.



Y a rien du tout d’irréalisable la dedans, et il n’y a pas besoin de se ruiner la santé hein.



Il me semblait important de le rappeler…<img data-src=" />





Tu es le seul à parler de perdre 1 kg par semaine. C’est pas le sujet de la news.

Ici, il est question d’en perdre 2 par semaine. La news parle de 15 livres, c’est-à-dire 6,8 kg en 3 semaines, ce qui fait effectivement plus de 2 kg par semaine.

Si pour perdre 2 kg de graisse, il faut perdre 2 * 9000 kcal, ça nous fait 18000 kcal à perdre, soit 18000 / 7 = 2571 par jour.



C’est marrant, quand on considère 2 kg par semaine (ce dont tout le monde parle ici depuis le début), on trouve à peu près le double de ton résultat… <img data-src=" />


Le 21/04/2014 à 12h 56







raoudoudou a écrit :



Et pourtant, en pratique, c’est très facile de perdre 2kg par semaine.



Tout d’abord parce qu’on commence à perdre… …de l’eau!



Ensuite, on perd de la graisse ET du muscle (il n’est pas possible de ne perdre que de la graisse).



Le problème d’une telle diète est que le corps va vite se mettre en mode économie et la perte de poids va se réduire, jusqu’à stagner, alors qu’on ne mange presque rien. En général, la déprime suit et le rebond ne tarde pas. On reprend tous les kilos perdus, plus un bonus <img data-src=" />



M’enfin on n’est pas sur PcInpact pour parler d’équilibre alimentaire non? <img data-src=" />





En principe, un régime est destiné à perdre de la graisse (et effectivement, un peu d’eau au début dans le cas d’une forte obésité).

Si tu perds du muscle ou si tu déprimes, c’est que tu te contentes de moins manger sans surveiller tes nutriments. Et là, ça peut être dangereux, le cœur étant lui-même un muscle…



Enfin tu as raison, on n’est pas sur PC INpact : on est sur NEXT INpact. <img data-src=" />


Le 21/04/2014 à 11h 14

En fait, le problème de ce genre de message est peut-être davantage la santé que la sécurité informatique…



Plus de 2 kg par semaine ? Sachant que pour perdre 1 kg de graisse, il faut un déficit d’environ 9000 kcal, ça reviendrait à un déficit de plus 2500 kcal par jour.

Une personne sédentaire consomme aux alentours de 2000 kcal par jour. Donc non seulement il faut avoir assez d’activité pour monter à 2500, mais il faut en plus ne rien manger du tout pendant 3 semaines.



Voilà pourquoi dans la pratique, il est presque impossible de perdre plus d’un kg (2,2 livres) par semaine sans ruiner sa santé. Il me semblait important de le rappeler.

Le 20/04/2014 à 20h 27







yan74s a écrit :



Je ne sais pas si elle est déjà passée celle là (je ne crois pas)



L’expert en réunion





Passé il y a 2 semaines :

http://www.lidd.fr/lidd/12667-quest-ce-quun-veritable-expert-en-entreprise

<img data-src=" />


Le 18/04/2014 à 15h 17







sr17 a écrit :



Paradoxalement, moins il y a de bruit, plus la sensibilité de l’oreille augmente.



Donc sur une config totalement fanless, tu entendra effectivement beaucoup plus les phénomènes de “coil whine”, les disques durs qui grattent et autres.



Tout autant de bruits que je trouve beaucoup plus désagréables qu’un ventilo qui tourne à une vitesse modeste.





Oui, mais je parlais d’une comparaison faite sur la même machine, avec seulement l’alim qui change. D’un côté, j’ai un ventilo d’alim audible uniquement à moins de 20 cm, et de l’autre un grésillement d’électronique audible à plus d’un mètre.



Enfin, comme tu le soulignes, la recherche du silence est sans fin puisqu’on a tendance à faire de plus en plus attention. Et c’est pourquoi j’ai fini par adopter une solution radicale : le PC dans une autre pièce avec des rallonges.


Le 18/04/2014 à 11h 29

Fanless n’est pas synonyme de silence !

J’ai une alimentation fanless dont l’électronique fait plus de bruit que le ventilo de mon alim actuelle…

Le 17/04/2014 à 17h 04







Glyphe a écrit :



Je ne suis pas d’accord avec vous. Truecrypt utilise actuellement les aglos de chiffrement et les protocoles les plus récents et les plus éprouvés. J’attends toujours qu’est-ce que vous voudriez rajouter à AES, Serpent et Twofish pour le chiffrement et mieux que SHA512 pour le hash …





Les algos de chiffrement, tout comme les les fonctions de hashs, ne s’utilisent pas seuls. C’est pas AES qui est utilisé dans TrueCrypt mais XTS-AES. Idem pour SHA-512 : c’est en réalité PBKDF2/SHA-512.

Et PBKDF2 est aujourd’hui considérée comme insuffisante (surtout avec seulement 1000 itérations), car facile à paralléliser (et donc à implémenter sur GPU…). Scrypt est une solution destinée à réduire ce problème.







Glyphe a écrit :



Le code à revoir est du côté du code du software en lui-même. En terme de sécurité changer trop souvent le code ou venir rajouter des fonctions “plus modernes” adaptées aux OS et aux pratiques récentes risquerait de créer des brèches dans la sécurité. Il semble encore aujourd’hui être l’Etat de l’Art dans son domaine donc moi je pense que garder des versions de long terme comme ici avec l’audit à côté semble être une bonne idée.





Qu’est-ce que tu appelles une “brèche dans la sécurité” pour ce genre de logiciel ?

Même la chaîne “TRUE” qu’on trouve dans les en-têtes de volume TrueCrypt n’est pas encore une véritable vulnérabilité. Pas encore. Mais il est vrai que c’est un peu con, parce que ça pourrait le devenir (au lieu d’avoir 2^128 blocks déchiffrés différents possibles, on n’en a plus que 2^96).

Pour le reste, il est infiniment plus simple de chercher à foutre un keylogger, voir même un truc qui repère directement le volume déchiffré (jette donc un coup d’œil dans la clé de registre HKLM\SYSTEM\MountedDevices…) que de chercher à reconstituer une clé que TrueCrypt aurait permis de retrouver quelque part dans la RAM.



Faut arrêter de penser que de poser le doigt sur le code va casser tout un assemblage fragile. C’est même tout le contraire : tu préfèrerais que ton OS n’ait pas de mise à jour pendant 2 ans ?

Les techniques informatiques évoluent, et la cryptographie ne fait pas exception.


Le 17/04/2014 à 13h 01







papinse a écrit :



D’accord, mais as-tu suggéré ces fonctionnalités ou remonté ces bugs ?





A quoi bon, si le soft n’est plus développé ? Pour moi, TrueCrypt a trop de problèmes, que ce soit les traces qu’il laisse dans le système ou ses performances rachitiques (le code en C que j’utilise pour AES est plus rapide que leur code ASM, et ce n’est qu’un exemple). Sans parler de toutes ces fonctionnalités stupides et dangereuses comme celle de la clé dans un fichier (juste à tester chaque fichier de la machine un par un), celle du “déni plausible” (comme si on avait l’air “plausible” en disant “oui oui, ce gros volume chiffré en FAT32 avec presque rien dedans ne contient absolument pas de volume caché, promis-juré-craché”), l’OS chiffré où il n’y qu’à regarder le secteur de démarrage pour savoir s’il y en a un, etc…

Mais je ne me contente pas de me plaindre, puisque j’ai fini par développer une alternative.


Le 17/04/2014 à 10h 32







Bross a écrit :



C’est pas comme si Truecrypt etait encore développé….



Ca fait plus de 2ans que aucune version n’a vu le jour





+1

Il suffit de jeter un coup d’œil au source pour voir que ce genre de soft requiert d’y foutre son nez en permanence pour y comprendre quelque chose (et donc pouvoir l’améliorer).







papinse a écrit :



Cet audit sera peut-être justement l’occasion d’une nouvelle version. <img data-src=" />



Après, pour un soft destiné à la sécurité, sans faille découverte à ce jour, sans besoin flagrant de nouvelle fonctionnalité (support futur de Keccak/SHA-3 après SHA-2 512 ?), y a-t-il vraiment besoin de changer quoi que ce soit ?





La fonction de dérivation de clé scrypt serait plus utile, mais c’est une vraie misère à implémenter, même avec le code source de référence (scrypt utilise une fonction PBKDF2, laquelle utilise une fonction HMAC, laquelle utilise une fonction de hash, et le seul hash présenté avec les vecteurs de test est du SHA-256).



Enfin sinon oui, il y aurait besoin de changer un paquet de trucs : une implémentation SSE2 de Serpent se bricole en une heure et multiplie les perfs de cet algo par environ 2,5. Le problème est que dans leur cas, il faut rajouter au mieux une grosse journée de boulot pour la modification du mode XTS, vu le bazar de leur implémentation, modification requise par le fait que l’optimisation de Serpent consiste à traiter 4 blocs de 128-bit à la fois.



Ils pourraient aussi prendre en compte XTS dans leur benchmark histoire d’avoir un truc un peu plus réaliste, vu que les algos de chiffrement ne sont jamais utilisés seuls. Mais le résultat pourrait faire peur…



Et puis éviter d’écrire tout ce qu’on fait avec TrueCrypt dans le journal des évènements et la base de registre…


Le 16/04/2014 à 12h 51







OlivierJ a écrit :



Là tu parles de performances, et tu confonds évolution des performances et innovation. L’architecture des processeurs ne cesse d’être améliorée, même si ça se voit moins dans les performances, du fait surtout de la stagnation des fréquences de fonctionnement.





Si un changement d’architecture n’a pas pour conséquence une amélioration visible des performances (et dans la pratique, 20% de plus, c’est rarement visible), alors ça ne sert pas à grand-chose.



Et le fait que les fréquences stagnent n’empêche pas une amélioration des performances, il suffit de voir ce qu’ont apporté les premiers core 2 duo : même sur un seul cœur, ils étaient déjà nettement plus performants que n’importe quel P4 prescott.



20% de perf en plus, quelques watts de moins, personne ne va cracher dessus. Mais même si Intel change complètement d’architecture, si les utilisateurs ne perçoivent rien, alors on ne peut pas parler d’innovation, parce que dans tout marché, c’est le point de vue de l’acheteur qui compte, pas celui du fabricant.


Le 15/04/2014 à 23h 45







OlivierJ a écrit :



Tu ne connais pas bien le sujet je pense.

Tu confonds peut-être avec les fréquences de fonctionnement.





C’est toi qui connait mal le sujet. Regarde donc un peu les benchs : le core i7 2600k est sorti il y a 3 ans et demi. Aujourd’hui, dans la même gamme de prix, on a des CPU avec environ 20% de perf de plus. L’évolution n’a jamais été aussi lente.


Le 14/04/2014 à 12h 49







freechelmi a écrit :



Ces Bay-trail supporte 4go et pourtant tout le monde n’en mets que 2. de peur que ça fasse de l’ombre aux machine a 600 euros ?





Intel indique sur ARK :

Max Memory Size (dependent on memory type) 2 GB



En plus, le lien est dans l’article. <img data-src=" />


Le 14/04/2014 à 11h 51



Intel indique en outre qu’elle peut supporter des chutes d’une hauteur de 70 cm.



Sur un gros tapis ou sur du carrelage ? En tout cas, pour un ordi qui n’est même pas équipé de disque dur, ça ne parait vraiment pas extraordinaire… et très insuffisant pour confier ça à des gamins.

Le 11/04/2014 à 12h 41



batterie non amovible



<img data-src=" />

Le 10/04/2014 à 17h 53







divide a écrit :



Hop, un bench de perf sans appel pour alimenter le débat:

http://www.codeproject.com/Articles/212856/Head-to-head-benchmark-Csharp-vs-NET





Sans appel ? Le plus intéressant dans ce genre de truc, c’est les commentaires (enfin, ceux de plus de 3 lignes).



Quant au SSE2… Les résultats montrent clairement qu’il ne suffit pas de “enable SSE/SSE2”, comme il dit dans la conclusion. Le SSE2 n’est pas un switch à activer, c’est un ensemble d’instructions. Les compilateurs n’utilisent que très rarement ces instructions, pour la simple raison que pour traiter par exemple 4 entiers de 32 bits simultanément, il faut que l’algorithme soit conçu dans cette optique.



Par exemple, l’algorithme de chiffrement Serpent utilise des entiers de 32 bits pour chiffrer un bloc de 128 bits. Mais à ce niveau-là, il n’y a rien à faire avec le SSE2 parce que chaque entier subit des opérations différentes.

Toutefois, le premier entier 32 bits d’un bloc subit les mêmes opérations que le premier entier du second bloc. Et l’astuce est là : chiffrer 4 blocs (4*128 bits) simultanément. Comment un compilateur pourrait trouver ça ? Comment pourrait-il savoir que ça implique des modifications du mode d’opération XTS implémenté ailleurs ?

Et si on n’obtient qu’un gain d’environ 2,5x la vitesse d’origine, c’est uniquement à cause de l’absence d’opération de rotation de bits.



Bref, faut arrêter d’espérer que d’activer un switch va arranger votre algorithme comme il faut et trouver toutes les astuces à votre place.


Le 10/04/2014 à 14h 17







HarmattanBlow a écrit :



Les données ne seront pas partagées mais elles pourront être communiquées : autrement dit on peut dupliquer les données d’un processus à l’autre via un protocole spécifié par le processus hôte.





Dupliquer des données : perte de perf. Et c’est loin d’être négligeable : regarde toutes les tentatives d’améliorer la vitesse de memcpy. Le problème est qu’il n’y a même pas de “meilleure solution” parce que, encore une fois, ça dépend du matériel (utilisation et quantité des caches CPU).







HarmattanBlow a écrit :



Sauf que le coût est en fait négligeable parce que le code asm produit est optimisé pour les algos “next line” typiquement mis en oeuvre dans les CPU.





Comme je l’ai dit, j’ai examiné le code ASM produit. Je passe même beaucoup de temps à ça… Et il n’y a pas de boucle dans mon exemple, seulement un saut conditionnel.







HarmattanBlow a écrit :



En quoi ne le permet-il pas ? Il n’y a aucune différence avec un autre langage de programmation. D’ailleurs inspecter le code asm généré est un jeu d’enfant sous VS.





Parce que le code est généré à l’exécution, pas à la compilation. Ou alors tu parles d’autre chose.







HarmattanBlow a écrit :



Un branchement conditionnel raté (avec vidange du pipeline) coûte trois à quatre fois le coût d’une addition d’entiers, pas cinq cent fois. Il est donc mathématiquement impossible que la plus sommaire des boucles (dix instructions dont un branchement) soit ralentie de plus d’une dizaine de pourcents par l’ajout d’une vérification indicielle statiquement invérifiable exécutée sur une plateforme exotique où l’on ne pourrait pas optimiser la prédiction des branchements.





Tu es très loin du compte…

Wikipedia : Modern microprocessors tend to have quite long pipelines so that the misprediction delay is between 10 and 20 clock cycles.

Et une addition d’entiers peut être exécutée avec plusieurs autres instructions en un seul cycle, on peut donc considérer que c’est moins d’un cycle.

Comme quoi l’accélération x12 de mon exemple n’a vraiment rien de surprenant.







HarmattanBlow a écrit :



C’est loin d’être le cas aujourd’hui : l’assembleur est de bien plus haut niveau que les instructions du processeur et ce dernier contient un sacré bazar qui ne te sert à rien. Par ailleurs tous tes programmes s’exécutent en espace utilisateur et le moindre accès mémoire passe sous les fourches caudines de la mémoire virtuelle.





Curieusement, les intrinsics permettent de redécouvrir certaines instructions inutilisées, comme par exemple _bit_scan_forward

Bon sinon, pas la peine de me faire un cours sur les architectures RISC et CISC ou les vieilleries 16 bits, j’ai connu ce temps-là, un temps où on pouvait joyeusement écrire à l’adresse 0xA0000 pour faire apparaitre un pixel… <img data-src=" />







HarmattanBlow a écrit :



Et la ceinture de sécurité ne soigne pas le cancer.





Mais en es-tu vraiment persuadé ? Tu as l’air d’imaginer que le code managé est la solution à tous les problèmes de sécurité. Tout comme d’autres s’imaginent qu’une “sandbox” permet à navigateur d’être sûr…



De toute façon, outre le risque de perdre un marché pour Microsoft, il n’y a pas grand-monde qui veut d’un système aussi verrouillé que celui dont tu rêves : voir l’exemple du jailbreak d’iOS…


Le 10/04/2014 à 11h 06







sepas a écrit :



Tu es un particulier…Et même à 276€ c’est l’équivalent 3h de développement…





92 euros de l’heure ? Euh… c’est quoi ta boîte ? <img data-src=" />


Le 10/04/2014 à 11h 04







HarmattanBlow a écrit :



Il n’est pas nécessaire d’interdire la génération de code à l’exécution pour avoir quelque chose de sûr : il suffit d’imposer que celui-ci soit au moins dans des pages mémoire différentes voire un processus différent avec des privilèges moindres sans partage mémoire (ou seulement via un protocole déclaré dans le binaire d’origine).





Si le code généré dynamiquement n’a accès à rien, il ne sert pas à grand-chose…





HarmattanBlow a écrit :



Les performances de ton exemple s’appuient sur des instructions particulières.





Ces instructions n’ont rien de “particulières” : elles sont aujourd’hui largement utilisées, et sont même requises pour Windows 8. Et en temps d’exécution, là aussi, rien de particulier.



Le premier truc qui aurait dû te sauter aux yeux, même sans la moindre analyse, c’est le “if” du premier cas : un saut conditionnel rate statistiquement une fois sur deux, et dans ce cas, à cause d’une prédiction de branchement ratée, il y a tout le pipeline du CPU à recharger.

L’autre truc, c’est les accès RAM forcés par la forme du 1er cas, alors qu’il n’y a pratiquement pas d’accès dans le second.

Et voilà comment on peut, en gardant à l’esprit comment le matériel fonctionne, obtenir des gains de cet ordre. Mais ça nécessite de savoir à l’avance quelles instructions seront exécutées, ce que ne permet pas le code managé.







HarmattanBlow a écrit :



Comme je l’ai dit rien n’empêche d’exposer des moyens de consommer ces instructions. Ce genre d’optimisations existerait donc toujours. En fait je ne les considère même pas comme des optimisations tant elles sont évidentes.





C’est plus que des optimisations. L’algorithme lui-même doit être adapté ou adaptable. Par exemple, s’il faut accéder à des tables pour les calculs, s’il faut des sauts conditionnels, ou même parfois des trucs simples comme des rotations de bits fréquentes, c’est mort.





HarmattanBlow a écrit :



Est-ce négligeable ? Non. Mais entre ça et un code super-optimisé, je doute qu’on ait plus de 20 ou 30% de différence dans les pires cas.





La plupart de ces instructions nécessitent des données alignées sur 128 bits.



Qu’appelles-tu “vérifications des indices” ? Une vérification logicielle est impensable : tu n’obtiendrais pas un code 10 fois moins rapide mais plutôt de l’ordre de 50 ou plus. Avec des tests et des sauts conditionnels incessants, au lieu d’espérer 2 ou 3 instructions par cycle, ça risque plutôt d’avoisiner une instruction pour 20 cycles… Et avec le “comptage de références” dont tu parles, ce serait encore pire.

Quant à une vérification matérielle, c’est déjà présent et utilisé depuis les processeurs 80286… Quant au “bit NX”, c’est utilisé pour éviter les attaques par buffer overflow. A ce propos, j’espère que tu as pensé à activer la “prévention de l’exécution des données” pour tous les programmes et services… <img data-src=" />





HarmattanBlow a écrit :



Est-ce que de tels ralentissements sur une poignée de programmes valent un environnement sécurisé ? Oui.





Comme beaucoup d’autres, je veux rester maître de ma machine et pouvoir exploiter chaque composant comme je le veux. Ton “environnement sécurisé” ne me le permet pas.

Qu’un environnement complètement verrouillé soit souhaitable dans certains cas, c’est possible, mais pendant combien de temps aura-t-on le choix ? Encore une fois, le jour où Microsoft ne me permet plus de faire ce que je veux de ma machine (utiliser mon processeur comme je veux, accéder directement au disque dur, etc.), j’irais voir ailleurs.

Mais heureusement, ce n’est pas près d’arriver, car ça supprimerait bon nombre de jeux qui requiert des performances maximales, un marché que Microsoft ne peut pas se permettre de perdre.



D’ailleurs, je te rappelle que la sécurité absolue n’existe pas, et .NET est loin d’être à l’abri des failles.


Le 09/04/2014 à 23h 09







HarmattanBlow a écrit :



Ca fait belle lurette que les CPU ne coûtent plus grand chose





Au contraire, les prix ne cessent d’augmenter, voir ma réponse à sepas.







HarmattanBlow a écrit :



Justement, la course aux perfs dans le web ce n’est pas de la micro-optimisation mais des algos très sophistiqués et complexes pour analyser le code, typiquement le genre de choses où tu veux un langage de haut-niveau pour garder une lisibilité et maintenabilité.





“Le web”, ça ne veut rien dire. Je parle des navigateurs : regarde un peu comme ça râle parce que sur certaines machines, l’interdiction de la compilation JIT empêche de concevoir des navigateurs performants sur le javascript… Ce genre de bidouille demande un travail énorme, et tout ça pourquoi ? Juste pour gagner un peu de perf.





HarmattanBlow a écrit :



Quant à la vidéo, même si à tout casser c’était deux fois plus lent que ce qu’on pouvait faire dans un langage sûr (et j’en doute foutrement), elle est de plus en plus traitée sur GPU et pour ça le fait d’utiliser lua ou le C ne fait aucune différence.





2 fois plus lent ? Alors voilà un exemple. Cette opération est le cœur du mode d’opération XTS utilisé en cryptographie.



1ère version :

#define Mult(T) \

{ unsigned char Cout1, Cout2; \

Cout1 = (T.ch[7] & 0x80) &gt;&gt; 7; \

Cout2 = T.ch[15] & 0x80; \

T.i128 = _mm_slli_epi64(T.i128, 1); \

T.ch[8] |= Cout1; \

if (Cout2) T.ch[0] ^= 0x87; }



2ème version :

#define Mult(T) \

{ __m128i tmp = _mm_shuffle_epi32(_mm_srli_epi64(T, 63), _MM_SHUFFLE(1, 0, 3, 2)); \

T = (_mm_slli_epi64(T, 1) | tmp) ^ _mm_mul_epu32(tmp, GF_128_FDBK); }



Comme tu peux le voir, il y a des “intrinsics” SSE2 pour exploiter des entiers de 128 bits.

Je compte 10 opérations dans le 1er cas, 8 dans le second, le second ayant toutefois une multiplication (en fait, 4 réalisées en une seule instruction).

Hé bien crois-le ou non, mais le second cas est 12 fois plus rapide. Oui, 12 fois.

Et j’ai vérifié le code ASM produit par le compilateur : le code produit pour la première version est très propre et ne contient quasiment pas de code superflu.

Si tu sais de quoi tu parles, alors la raison de cette différence de perf devrait te paraitre évidente.



Quant au calcul déporté sur GPU, c’est loin d’être la solution miracle, à cause de toutes les latences nécessaires : transfert des données vers la VRAM, récupération des résultats, et les calculs eux-mêmes : tous les algorithmes ne sont pas parallélisables. Par exemple, un calcul de hash, c’est purement séquentiel.







HarmattanBlow a écrit :



On peut très bien exposer des API pour manipuler des fonctionnalités spécifiques du matériel. Et puis aujourd’hui les plus grosses innovations matérielles nécessitent de toute façon un changement de l’OS pour être adapté avec la fusion CPU-GPU, afin que le GPU ne soit plus un citoyen de seconde classe avec tout ce que ça implique pour les perfs.





Le SSE2 est un jeu d’instructions CPU à manipuler directement. Ça a été créé pour ça : pour les développeurs, pour la performance, pour faire du code. Si tu fous ce code dans une API, alors tu passes d’une infinité de possibilités à quelques dizaines ou centaines tout au plus, autant dire que ça n’a plus le moindre intérêt.



Ne sous-estime pas l’importance de la performance : non seulement les gens sont impatients, mais des outils performants permettent de réaliser plusieurs choses à la fois dans de meilleures conditions. Un logiciel de chiffrement qui empêche de jouer pendant qu’on réalise une sauvegarde des données, c’est pas super-sexy…

Et bouffer une heure d’autonomie de batterie pour avoir regardé 5 min de vidéo avec un lecteur vidéo mal optimisé, c’est pas mieux.



Alors oui, il y a toujours des progrès à faire en matière de sécurité, mais ça ne doit pas être au détriment de la liberté d’utiliser son matériel comme on veut. Si Microsoft impose le code managé, alors même si ça m’emmerde, je passerai sous Linux. Et comme disait l’autre :

“Un peuple prêt à sacrifier un peu de liberté pour un peu de sécurité ne mérite ni l’une ni l’autre, et finit par perdre les deux.” <img data-src=" />


Le 09/04/2014 à 11h 05







Lafisk a écrit :



Sauf que les nouveaux modele ne ce concentrent pas tellement sur la puissance, meme si il y a du mieux aussi de ce cote mais plutot sur la consommation meme pour les desktop. en soit, si mon i7 920 avait pas crame, il n’aurait pas a rougir de trop fac aux actuels.





Bien sûr qu’ils se concentrent sur la consommation, et ce n’est pas uniquement parce qu’il y a le marché de la mobilité à conquérir, mais aussi parce qu’on atteint une limite technique que même l’amélioration de la finesse de gravure ne résout pas (si on dissipe 10 W sur 2 fois moins de surface, ça signifie que cette surface va chauffer 2 fois plus…).





Lafisk a écrit :



Apres, l’optimisation, c’est bon pour 23 trucs mais la plupart des programmes actuel n’en ont pas besoin, enfin programme … application, site web, etc… tout ce qui aujourd’hui ce fait pour consommer du media et qui represente une bonne partie de c qui est developpe depuis quelques annees, pas besoin de perf de ouf…





C’est tout le contraire : il n’y a qu’à voir la course à la performance des navigateurs web. Dès que tu regardes une vidéo, c’est pareil : le décodage des flux H264 et cie. sont des concentrés d’optimisations.

On peut ajouter à ça bon nombre de jeux, et les programmes traitant de grandes quantité de données, comme les logiciels de retouche photo, le chiffrement de données (les instructions AES-NI ne sont pas là pour rien)… Sur ce dernier point, on peut voir par exemple pas mal de gens se plaindre du manque d’optimisation de TrueCrypt.



Alors oui, développer un logiciel de gestion en C/C++, c’est pas forcément très malin, et le C# est certainement plus approprié. Mais l’informatique ne se limite pas aux logiciels à destination des entreprises, loin de là.


Le 08/04/2014 à 22h 09







sepas a écrit :



Le CPU ne coûte plus rien





J’ai acheté il y a bientôt 3 ans un Core I7 2600k à 276 euros. Regarde donc les prix aujourd’hui

Intel n’a plus de concurrent sur le marché du desktop. Pour quelle raison baisserait-il les prix ?



Quant à la puissance des CPU, c’est pratiquement la même chose depuis 5 ans. Aujourd’hui, si tu veux plus de perf, il faut optimiser. Et si tu veux arriver à ce niveau-là avec un langage managé, ben… bon courage. <img data-src=" />


Le 10/04/2014 à 11h 41







tazvld a écrit :



(sérieux, qui copie légalement un DVD a part pour diffuser les rip ?)





Personne, puisque pour copier tu dois faire sauter les protections, ce qui est illégal.



Cela dit, moi je le fais si je pouvais je le ferais parce que ça me fait une “copie de sauvegarde”, et parce que c’est plus pratique.