votre avatar

vampire7

est avec nous depuis le 19 janvier 2007 ❤️

1471 commentaires

Le 27/08/2014 à 12h 11

Comme ce genre de pub ne génèrera que peu de revenus, elles deviendront progressivement plus nombreuses et intrusives, et on se demandera bientôt si on vient de cliquer sur “Nouvel onglet” ou sur “CDiscount”. <img data-src=" />

Le 27/08/2014 à 11h 28







ASSKICK a écrit :



Par contre dans la liste des choses à éliminer, je me demande pourquoi ils gardent encore des versions 32bits (x86) de leur OS, ça va faire bien des années que tout le matos est passé en 64bits, et je doute que les anciennes machines supporte de faire tourner win8 ou plus. <img data-src=" />





Pour les pilotes qui ne sont toujours pas disponibles en 64 bits…


Le 27/08/2014 à 11h 25







charon.G a écrit :



De même elle pose le problème de la compatibilité, je suis d’accord avec elle. Si rien n’est fait d’important sur la base,des problèmes de compatibilité pourront apparaître. Les entreprises gueuleront mais aussi les utilisateurs standards.





C’est évident pour quiconque se souvient que Windows XP, sans service pack, ne supporte pas les disques durs de plus de 128 Gio…



Avec Windows 9, je vois bien à l’avenir des problèmes genre carte réseau non reconnue et donc impossibilité de télécharger les mises à jour… Ce problème, qui a toujours existé, risque de devenir particulièrement fréquent avec ce genre de politique.


Le 26/08/2014 à 14h 42







Konrad a écrit :



Tu dois utiliser un PC depuis suffisamment longtemps pour savoir qu’aucun logiciel, et a forciori aucun OS, n’existe dans une version «finale et définitive» du genre «c’est bon on n’y touchera plus». <img data-src=" />





Personnellement, des logiciels qui ne sont plus développés, j’en connais un paquet… (eMule, TrueCrypt…)

Quant aux systèmes, MS-DOS est abandonné, et même FreeDOS n’a plus de mise à jour depuis plus de 2 ans.


Le 26/08/2014 à 21h 12







Resman a écrit :



6410^12 bits, avec un taux d’erreur de 10^-15, ça fait une proba d’erreur irrécupérable de 1-(1-10^-15)^(6410^12) = 6%.





Effectivement, c’est assez effrayant. Et ça l’est d’autant plus que la majorité des disques sont estimés à un taux d’erreur de 1 / 10^14. Il est donc assez probable que 10^15 soit un peu “optimiste”…


Le 25/08/2014 à 13h 56







JR_Ewing a écrit :



Financer des branquignols même pas foutus de sortir une version modern UI et WP?? <img data-src=" /> Et puis quoi encore????? <img data-src=" /> Qu’ils crèvent! <img data-src=" />





Une petite tisane à la camomille, quelques cours de yoga… Tu verras, ça ira mieux. <img data-src=" />


Le 25/08/2014 à 13h 19







h4l a écrit :



C’est drôle comme les gens en font une montagne surtout en utilisant chrome et Google…





Ben justement, si on utilise Firefox, c’est pas pour utiliser Chrome…

Quant à la pub dans Google, un bon coup d’Adblock et le problème est réglé.


Le 23/08/2014 à 01h 48







A33 a écrit :



Je bloque le referer pour emmerder les fournisseurs de liens raccourcis (que je soupçonne de bien des maux, la redirection n’est sûrement pas un cadeau pour l’utilisateur) et pour me masquer aux gros sites comme Google, Facebook et cie qui cachent justement de plus en plus l’origine des liens qui arrivent chez soi. Juste retour de ma part.





Depuis quelques versions, Firefox a des nouvelles options à ce sujet.

On peut maintenant, sans extension, limiter par exemple l’envoi du referer au site en cours et l’empêcher lorsqu’on passe d’un domaine à un autre : ainsi les sites qui en ont besoin sont contents et la confidentialité est préservée.


Le 22/08/2014 à 10h 02







Krutors a écrit :



Je vais peux être dire une connerie, mais étant donné que j’ai vu sur je ne sais plus quel graphique que, brancher une carte graphique PCI-e 2.0 sur un port 1.1 ne bridait les perfs que de 1 ou 2%, alors j’ose a peine imaginer sur un PCI-e 3.0…



Même câblé en 8x, je ne suis pas sûr que la bande passante soit un goulot d’étranglement. Bref, segmentation artificielle, manque de concurrence, tout ca… <img data-src=" />





Si tu ne charges pas des textures régulièrement, effectivement, ça ne va pas changer grand-chose. Dans le cas contraire, c’est un goulot d’étranglement majeur.


Le 18/08/2014 à 14h 37







Zimt a écrit :



Si tu maîtrise la génération des aléas qui vont chiffrer une donnée, tu peux prédéfinir les clés à utiliser pour déchiffrer une données.





Tout le monde ne se contente pas d’utiliser CryptGenRandom sans rien ajouter. Et même cette fonction, qui a beau être closed-source, n’a toujours rien révélé de suspect.


Le 18/08/2014 à 13h 22







Zimt a écrit :



“accélération matérielle (AES-Ni)”



C’est beau l’accélération matérielle ( pour faciliter l’obtention de la clé de chiffrement :) )





On est censé la récupérer comment, la clé de chiffrement ? Une mémoire flash dans le CPU ? Une instruction non documentée par Intel ?



Et puis c’est pas super économique pour Intel, vu que pour des clés de 256-bits, il y a 224 octets à stocker pour le chiffrement, et autant pour le déchiffrement… Sans compter qu’on ne sait même pas combien en stocker, vu que ça varie en fonction du nombre de tours, et donc de la taille de la clé.



On attend donc tes explications… à moins que ce ne soit que du FUD…


Le 14/08/2014 à 23h 56







millcaj a écrit :









Dans le même genre, souvent utilisée par la rédaction de NextINpact, il y a l’expression “être de la partie”, alors que d’après le Larousse, cette expression signifie “être du métier”.


Le 11/08/2014 à 18h 45







chaps a écrit :



J’ai dit que je ne débattrai plus sur le sujet, je ne débattrai donc plus.





On a quand même le droit de donner notre avis, même si ça ne te plait pas.







chaps a écrit :



Il existe une norme, elle est rigoureuse. Utiliser la même unité pour exprimer deux quantités différentes est ambigüe et incorrect. Ce n’est pas une opinion, c’est un fait.





Les seuls fabricants de matériel à avoir adopté cette norme sont ceux qui ont un intérêt économique à le faire. Ça aussi c’est un fait.







chaps a écrit :



Voilà. Après si vous ça vous plait de tout mélanger et que vous ne voyez pas l’intérêt de respecter une norme, c’est comme ça. Mais y’a pas de quoi en plus s’en vanter…





Tu es le seul ici à tout mélanger. Tu confonds l’auteur de l’article et Crucial.

Crucial annonce 4 Go, alors c’est 4 Go. Crucial se trompe ? Alors plains-toi à Crucial, pas à nous.

Et tu es le seul ici à te vanter de quelque chose (le respect d’une “norme”).


Le 11/08/2014 à 14h 14







chaps a écrit :









Crucial exprime une quantité en Go. Un journaliste rigoureux utilisera donc la même notation.

Si tu veux te plaindre, fais-le à Crucial.



En fait, l’apparition des préfixes binaires n’a fait qu’augmenter le nombre de mécontents…

Avant, il y avait les disquettes de “1,44 Mo” qui faisaient en réalité 1440 Ko (1440 * 1024 octets), et je n’ai jamais vu quelqu’un s’en plaindre.


Le 07/08/2014 à 09h 54







jb18v a écrit :



c’est pas Gen!Sys ? enfin ça n’a pas plus de sens en fait <img data-src=" />





En fait, ici, on peut voir d’un côté le texte “Terminator Genisys”, et de l’autre la chaise de Arnold et l’image du bouton d’abonnement afficher un point d’exclamation.



J’ai donc l’impression que la lettre i n’est utilisée que par commodité ou en cas de caractère interdit et qu’en réalité, c’est un point d’exclamation.


Le 06/08/2014 à 15h 20

Pour ce qui est du multiplexage, quelles différences y a-t-il entre SPDY, HTTP 2.0, et le vieux “pipelining” qui n’est toujours pas activé par défaut dans Firefox ?



Ca donne quand même une petite impression de redondance tout ça…

Le 06/08/2014 à 11h 39







FrDakota a écrit :



Heu… <img data-src=" />



Marre de ces jeux où il faut taper sans arrêt.





Les gens sont de plus en plus frustrés, alors ils ont de plus en plus besoin de se défouler…



A chaque fois que je vois une vidéo de Hyrule Warriors, ça me donne envie de refaire une partie de Zelda 1… (et c’est pas un troll)


Le 05/08/2014 à 15h 06







unCaillou a écrit :



ou sinon créer un compte yopmail/google/hotmail/yahoo/spamgourmet ça prend 2 secondes…





Euh, un compte Google ou Outlook, c’est plus que 2 secondes de nos jours… Il faut absolument rentrer 356 informations perso, “valider” le compte à l’aide d’une autre adresse mail (à supposer qu’on en ait déjà une qu’on accepte de lier à la nouvelle) ou d’un numéro de tél…



Par contre, les mails jetables, effectivement c’est pas ce qui manque.


Le 05/08/2014 à 14h 24

Pour ma part, le site ne fonctionne pas : impossible de taper l’adresse du destinataire, et le type de personne choisi n’est pas validé.

Testé avec Firefox 31 et IE 11.

Le 03/08/2014 à 11h 06







HarmattanBlow a écrit :



Je trouve que des performances des dizaines de fois supérieures pour le GPU alors que le CPU s’est doté d’une nouvelle instruction pratiquement juste pour ce cas, c’est au contraire assez parlant.





Où ça, “des dizaines de fois” ? Mon lien montrait quelque chose comme x5 pour le GPU… seulement dans le meilleur des cas.

De plus, sachant que le gars a probablement utilisé une implémentation similaire pour le CPU et le GPU, sur un matériel de la même époque et de la même gamme de prix, dire que c’est une mauvaise implémentation, c’est juste de la mauvaise foi.



Les 900 Mo/s dont je parle ne concernent, comme je l’ai dit, qu’une implémentation software, donc sans instructions AES.

Avec ces instructions, les benchs montrent en général dans les 4 Go/s… sans perdre de temps à appeler le driver ou à copier des données.



Pour le SSL, sachant que la taille des paquets IP est au plus de 1500 octets, on est largement en-dessous du point où utiliser le GPU est rentable. Et même en chiffrement de fichier (pratique plus courante que tu sembles l’imaginer : il n’y a qu’à voir ce qu’il s’est passé avec la fin de TrueCrypt), il n’est pas rare d’avoir des requêtes de 4 Ko ou moins.

Et dans ces cas-là, utiliser le GPU est au contraire une source de ralentissement.



Bien souvent, le parallélisme massif n’est efficace que sur des grosses quantités de données. Pour le GPU, c’est facile à comprendre :




  • fonctions de synchronisation avec éventuellement réveil d’un thread (et donc chargement du contexte)

  • appel d’une API qui elle-même va adresser une requête au pilote

  • transfert des données de la RAM vers la VRAM

    Il n’y a que ce dernier point qui est résolu avec les APU. Étant donnés les temps d’exécution affolants des 2 premiers points, c’est peu, et du coup, intéressant seulement pour les grosses requêtes.







    HarmattanBlow a écrit :



    Oui enfin les types auraient pu choisir d’aligner des CPU (s’ils avaient été stupides). Ils ont au contraire aligné des GPU.





    Il n’empêche que comparer 1 CPU à 8 GPUs, c’est pas très malin.

    Et il est encore moins malin de me reprocher de prendre des exemples “anecdotiques” selon toi (vidéo, traitement d’image, jeux, cryptographie…) quand toi tu prends ici le cas du crackage de mot de passe.

    C’est à se demander ce que tu fais sur ton PC… <img data-src=" />



    Au fait, comment as-tu utilisé les instructions SIMD la fois où tu as eu à le faire ? ASM ou intrinsics ?

    Pour ma part, j’aurais eu du mal à voir l’intérêt de l’AVX2 (et des autres jeux d’instructions) sans la doc de Intel sur les intrinsics…


Le 02/08/2014 à 22h 28







HarmattanBlow a écrit :



Sauf que dans la réalité ce genre de choses n’est pas l’application finale mais un sous-composant de l’application. Voilà ourquoi dans la réalité SSE2 et consorts sont quantité négligeable.





Oui la boucle d’AES est très petite. Et alors, ça change quoi ?

Il n’en reste pas moins que d’autres algos peuvent avoir une boucle de plus de 100 lignes et être complètement optimisables par instructions SIMD.







HarmattanBlow a écrit :



Non, je t’ai dit et je te répète qu’un algorithme conçu expressément pour être inefficace sur GPU n’est pas représentatif. Ce qui est l’évidence même.





AES n’a pas été conçu pour être inefficace sur GPU. Tu ne serais pas en train de confondre avec scrypt ?







HarmattanBlow a écrit :



Parce que le type utilise une antiquité (datant probablement d’avant le support des entiers sur CG) et que l’implémentation est sans doute mauvaise. Les implémentations modernes d’AES sur GPU crachent des dizaines de Gbps contre les quelques dizaines de Mbps sur CPU de ton lien.





En implémentation software de AES, mon i7 2600k crache dans les 900 Mo/s. Et des “dizaines de Gbps”, quand tu ramènes ça à des octets, ça fait tout de suite moins impressionnant…

On en revient donc à une différence qui n’est pas si fabuleuse, et limitée aux cas où les quantités de données sont assez grosses.







HarmattanBlow a écrit :



Aujourd’hui tous ceux qui font du déchiffrement de mdp en masse le font sur des boîtes à GPU contenant environ huit CG alignées. Les perfs sont tout simplement incomparables.





Si tu veux comparer une machine avec plusieurs cartes graphiques, fais la comparaison avec une machine multi-CPU. Sinon, comme tu le dis, c’est incomparable, parce qu’il n’y a rien à comparer.


Le 02/08/2014 à 21h 27







HarmattanBlow a écrit :



Ton exemple de Serpent sonne bien mais en réalité c’est un cas particulier parce que 99% du temps CPU doit être occupé par un code de 20 lignes, ce qui est exceptionnel. Et de toute façon les perfs restent inférieures à celles obtenues sur GPU, de très loin.





En comparaison, Serpent est au contraire bien plus complexe que AES ou Twofish, et même une version compacte prendrait entre 200 et 300 lignes de code.

Quant aux perfs sur GPU, tu devrais peut-être jeter un œil ici. Et encore, si le gars avait disposé des instructions AES, son implémentation CUDA aurait été plus lente dans tous les cas.



Tu pourras toujours dire que c’est à cause des transferts de données sur PCIe, que les APU d’AMD vont résoudre ça… Et je serai bien content qu’un jour ce soit le cas. Mais pour l’instant, quiconque a besoin de performance ne se penchera pas sur ce genre de puce.


Le 02/08/2014 à 18h 40







HarmattanBlow a écrit :



Bien sûr. Mais ça reste marginal.





Windows c’est marginal ? Pourquoi réclamer le SSE2 comme prérequis à Windows 8.1 si c’est juste pour 2 ou 3 bricoles isolées ?

La cryptographie aussi n’a plus rien de marginal, et la majorité des librairies et applications actuellement maintenues dans ce domaine utilisent au moins des instructions SSE2.

Les jeux aussi c’est marginal ? Tu en connais beaucoup, des moteurs 3D récents qui n’utilisent pas la moindre instruction SIMD ?

La lecture de vidéo est marginale aussi ? FFmpeg, présent dans les principaux lecteurs actuels, utilise un grand nombre d’optimisations SIMD.







HarmattanBlow a écrit :



Formidable nouvelle pour les trois algorithmes de crypto qui en auront besoin. Je suis sûr que çà accélérera de 30% la partie crypto de la gestion du réseau qui elle-même représente 10% de la gestion du réseau, qui elle-même représente 5% de l’activité de navigation. Soit un fabuleux gain de 1,5%.



Ou le minage de… Ah, non, on mine sur GPU.





Plusieurs implémentations optimisées SSE2 de Serpent montrent une accélération d’au moins 2,5x.

Grâce aux instructions AVX2, on peut maintenant espérer le même genre d’accélération dans la plupart des autres algos de crypto.

Et je ne sais pas si t’es au courant, mais la crypto ne se résume pas au SSL…



Quant au minage… Litecoin utilise scrypt avec comme paramètres N=1024, p=1, r=1. C’est ridicule, ça enlève tout l’intérêt de cette fonction qui a justement été conçue pour être pratiquement impossible à utiliser sur GPU.







HarmattanBlow a écrit :



Plus j’y réfléchis, plus j’ai l’impression que, si, on peut bel et bien trouver des algorithmes parallèles pour presque tous les problèmes.





Ben moi, plus j’y réfléchis, plus j’arrive à la conclusion inverse.

Tu crois que c’est juste de la flemme de la part des développeurs s’il y a autant d’applications qui, malgré leur besoin en performance, n’utilisent jamais plus de 2 ou 3 threads actifs ?


Le 02/08/2014 à 16h 58







HarmattanBlow a écrit :



Ca fait plus de deux décennies que je programme et j’ai fait à peu près de tout. Y compris nombre d’applis où les performances étaient un vrai défi. Sais-tu combien de fois j’ai utilisé ces instructions SIMD ? Une fois. Une fois en plus de deux décennies. Ce fut la seule et unique fois où j’en ai eu besoin. A contrario la majeure partie de mes projets depuis plusieurs années incluent des systèmes massivement parallèles.



Alors, oui, cette unique fois-là c’était important. Pour les 0,1% de programmes qui font des calculs vectoriels par groupes de 4 ou 8 sur le CPU (de plus en plus rare), ça permet un joli gain. Mais autant dire que AVX2 me laisse complètement froid et que même dans dix ans ça n’aura qu’une utilité marginale.





Dans ce cas, pourquoi suggérer “Et remplaçons les par mille pentium 2 et unités SIMD.” ?

Windows 8.1 nécessite aujourd’hui le SSE2, et une grande partie des applications réclamant des performances en profite, comme la cryptographie, les applications de traitement de l’image, la vidéo, certains jeux…



Bon nombre d’algos ne sont pas vectorisables à cause du fait que certains résultats intermédiaires sont utilisés comme indices de tableau (très fréquent en crypto). Et c’est justement le gros changement apporté par l’AVX2.







HarmattanBlow a écrit :



Dans le même temps les performances parallèles ont été multipliées par 100. Alors quelle est la bonne direction ?





Les performances sur quoi ? Quel algo ? Quel type de calcul ?

Tout n’est pas parallélisable, et même quand ça l’est, il faut tenir compte des coûts en temps d’exécution dus à la synchronisation des threads, des accès séquentiels à la RAM, etc. Dans certains cas, paralléliser peut même donner un résultat plus lent.



Cela dit, il reste clairement des trucs à faire. Je ne connais par exemple aucun algo de hash permettant le moindre parallélisme sur un seul flux de données.


Le 02/08/2014 à 14h 02







HarmattanBlow a écrit :



C’est du gaspillage de silicium, virons ces micro-optimisations silicophages, ces nouvelles instructions à la noix et ces caches démesurés.





Tu devrais justement jeter un coup d’œil à ces “nouvelles instructions à la noix”. L’AVX2 apporté par Haswell devrait permettre un bon de performances aussi important que l’a permis le SSE2, grâce à des instructions qui étaient attendues depuis longtemps.



Mais maintenant, il faut être patient, le temps que les gens s’équipent (y compris les développeurs), que les compilateurs prennent correctement en charge les instructions et intrinsics correspondants…

En plus de ça, il faut aussi pouvoir mettre à jour son propre compilateur, ce qui n’a rien d’évident. Moi, je me retrouve bloqué avec la version 4.7 de GCC parce que les versions suivantes produisent un code beaucoup plus lent sur tout ce que je fais.

Voilà pourquoi il peut y en avoir pour plusieurs années. Et voilà pourquoi ce genre de progrès ne risque pas d’apparaitre sur les benchmarks.



A côté de ça, il y a les accès à la RAM qui continuent de se faire laborieusement en 64 bits par canal, d’où l’intérêt primordial de “ces caches démesurés”.



Mais si tu as la solution à tout ça, qu’est-ce que tu attends ? Tu n’as qu’à proposer ta super nouvelle architecture à AMD, je crois qu’ils en auraient bien besoin. <img data-src=" />


Le 01/08/2014 à 11h 47







CaptainDangeax a écrit :



En même temps, on peut toujours installer tout et n’importe quoi dans le dossier users\username\appdata\roaming, et c’est exécutable, alors…





Ca peut se configurer avec les paramètres de sécurité du dossier. Mais certes, ça devrait être fait par défaut.


Le 31/07/2014 à 12h 26



Ils avaient rejoint le réseau en janvier dernier et le message est simple : tous ceux qui ont ouvert ou utilisé des services cachés entre février et le 4 juillet doivent présumer qu’ils ont été touchés.



Donc pas de faille pour ceux qui n’utilisaient pas les services cachés.



les pirates ne devraient pas savoir quelles pages ont été chargées par un utilisateur particulier.



Donc finalement, tout ceci ne concerne pas les utilisateurs.



Selon le communiqué, la faille de sécurité permet en effet une modification des en-têtes du protocole de communication. Or, rien n’empêche techniquement ces en-têtes d’avoir été utilisés par d’autres pirates pour briser l’anonymat.



Oui enfin tout ce qu’on veut savoir, c’est si des IP d’utilisateurs ont pu être récupérées ou pas. A la base, Tor, ça sert quand même à ça…

Le 29/07/2014 à 13h 41







John Shaft a écrit :



En tout cas, quand on sait que le JO Lois & Décrets pas loin de 200 pages (en moyenne) du mardi au dimanche, le numérique est une bénédiction pour chercher un truc dans ce foutoir.





Certains d’entre nous se font traiter de “pisseurs de code”, mais eux, c’est des pisseurs de lois !


Le 29/07/2014 à 13h 22







sniperdc a écrit :



dafuq <img data-src=" /> Il se sont paumés?

L’article sur le SATA de Wikipedia donne le bon formalisme



Edit :



SATA III ou SATA 600 : 6 Gbit/s Debit théorique 768 Mo/s Débit pratique : 600 Mo/s



Source Wikipedia





Bon je reprends. <img data-src=" />

Tu as corrigé doom_Oo7, mais ce n’est pas lui qui a fait l’erreur, celle-ci se trouve dans les tableaux parce que la traduction a été faite à l’arrach’.


Le 29/07/2014 à 12h 56







sniperdc a écrit :



Giga bit et non Giga byte <img data-src=" />





Toute les connexions de données sont exprimées en bit. Pour avoir sa capacité en Byte(octet) il faut le diviser par 8.



C’est tout de suite moins glam’s <img data-src=" />





Regarde la 2ème ligne des tableaux…


Le 29/07/2014 à 12h 53







Nissash a écrit :



je crois qu’il parle du fait que le tableau ait mal été rédigé :

c’est écrit 6Go/s au lieu de 6Gb/s

6Go/s = 48Gb/s

le SATA c’est 6Gbps et non 6GBps. bit/Byte (byte =octet)





Ah oui tiens, j’avais pas vu… <img data-src=" />


Le 29/07/2014 à 12h 39







doom_Oo7 a écrit :



Mhmh… SATA 6 Go/s… ça fait sérieux…





Ca peut accélérer le transfert des commandes et du coup augmenter un peu le débit global dans certains cas. Regarde le premier tableau de résultats ici.


Le 26/07/2014 à 22h 21







Reznor26 a écrit :



Le boss final de votre week-end sur internet <img data-src=" />





Ouch, c’est un vrai LIDD ça… <img data-src=" />


Le 26/07/2014 à 11h 56

Et si on n’a pas de smartphone, on n’a pas le droit de se garer ?

Le 24/07/2014 à 23h 25

Le RV05 (d’après le lien, c’est plus précisément RV05B-W) a déjà été présenté dans cette actu.



Alors Kevin, un petit coup de fatigue ? <img data-src=" />

Le 24/07/2014 à 17h 51







tschaggatta a écrit :



Et comment audite-t-on un code fermé… Parce qu’un open, ok… mais…. <img data-src=" />





Fuzzing.

De plus, les sources de Windows ne sont pas fermées pour tout le monde.


Le 24/07/2014 à 16h 17







kade a écrit :



Il faudrait également l’option “choc électrique” comme pour les colliers de chiens.

Ainsi, avec la permission des parents, la maîtresse aura le code de déblocage de chaque gamin et pourra (enfin) faire taire les sauvageons.





Oui mais pour éviter que les enfants ne trouvent la parade en glissant un isolant sous le bracelet, il faudrait que les électrodes leur rentre carrément dans le bras. Enfin ce n’est pas un problème, y’en a qui se percent bien le lobe de l’oreille, alors pourquoi pas le poignet ?

T’façon, c’est pour leur bien. <img data-src=" />


Le 22/07/2014 à 16h 58







benjarobin a écrit :



Quelqu’un connait un ordre d’idée en Idle pour un disque dur 2.5” en 5400 tr/min ?





Pour le WD Green 2To en 2,5” (WD20NPVX), le PDF indique 1,7 W en lecture/écriture, 0,8 W en idle et 0,2 W en standby.


Le 16/07/2014 à 14h 37







colonelc4 a écrit :



Pour combien de temps le PC est de retour ?





Juste le temps d’écrire la prochaine news sur les chiffres des assembleurs de PC.



Et puis un jour, dans un lointain futur, une enquête révolutionnaire viendra montrer que oui, il y a encore des gens qui assemblent ou mettent à jour leur PC eux-mêmes, ou le font assembler par des proches ou par des petites boutiques.


Le 16/07/2014 à 13h 38







levhieu a écrit :



Je sais, je suis HS.

Et aussi ma vue a vraiment baissé (note pour moi: nettoyer les lunettes à tout hasard…)



C’est quoi le machin sur lequel le processeur est posé ?





Je dirais une galette de silicium : un métal aux reflets noirâtres utilisé pour les transistors. J’imagine que c’est une manière de montrer la transformation effectuée entre le minerai et le produit final… (même si ça revient à faire l’impasse sur tous les autres matériaux utilisés)


Le 16/07/2014 à 12h 53

Curieusement, il n’y a pas beaucoup de politiciens à avoir refusé la légion d’honneur…

Le 12/07/2014 à 17h 22

Il faut bien que Madame la Directrice Juridique Édition justifie son (gros) salaire…

Le 09/07/2014 à 10h 03







Drepanocytose a écrit :



Grande nouvelle !

Qu’est-ce que ca fout dans les brèves, ca ?





C’est juste un changement de nom de l’un des nombreux forks d’une vieille application (elle-même dérivée d’une autre)…


Le 04/07/2014 à 10h 10







chaps a écrit :



Tu as peut-être lu, mais ce n’est pas du tout ce que tu dis. Tu parles d’images dédoublées alors que je justement, avec G-Sync il n’y en a pas. D’ailleurs il est inutile de parler de 50Hz ou de 60Hz avec G-Sync, puisque la grosse nouveauté est justement que le taux de rafraichissement des images à l’écran n’est plus constant, mais variable !



Bref, tu as lu, tu n’as rien compris <img data-src=" />









Edtech a écrit :



Il explique le problème et toi tu parles de la solution, faut vous mettre d’accord <img data-src=" />





Merci Edtech, mais peut-être aurais-je dû être plus explicite là-dessus. <img data-src=" />

En fait, j’ai souvent un jeu qui me revient à l’esprit : Suikoden, premier du nom. Scrolling 2D plein écran en 50 Hz à chaque mouvement du bonhomme : sur un ancien écran où je pouvais basculer en 50 Hz, j’ai eu l’occasion de voir la différence par rapport à un réglage de l’écran en 60 Hz : c’est vraiment le jour et la nuit en terme de confort visuel. Si G-Sync est compatible avec l’émulateur, ça pourrait résoudre le problème (mais malheureusement, ce ne sera pas possible avec mon écran actuel <img data-src=" />).


Le 03/07/2014 à 20h 20







Magyar a écrit :



heu, pas du tout. Je vous conseille de relire le très bon article que HFR à réaliser : Nvidia G-SYNC en test.





J’ai lu, et c’est exactement ce que je dis.


Le 03/07/2014 à 16h 49







yvan a écrit :



Par rapport à la synchro verticale logicielle ça apporte quoi? Je n’ai pas bien compris ce sujet.





La synchro logicielle attend qu’une image soit prête avant de permettre à la carte de l’afficher. Sans ça, l’image précédente se retrouve affichée en partie, le reste de l’écran affichant alors les lignes de la nouvelle image : lors d’un mouvement, ça donne donc une sorte coupure horizontale dont la hauteur varie en fonction du temps que met la nouvelle image à être prête.



Ici, la synchro ne concerne plus les données à afficher mais la fréquence de rafraichissement. Par exemple, si tu as un jeu prévu pour fonctionner en 50 Hz et que ton écran en affiche 60, tu vas avoir une image sur 5 qui sera dédoublée. Du coup, dans certains cas comme un scrolling plein écran régulier, ça peut donner une impression de saccade rapide assez désagréable.


Le 03/07/2014 à 15h 16







athlon64 a écrit :



Sauf qu’il faut voir la population par département





Pas de problème : 66 millions / 101 = 653 465. Bien sûr, c’est une moyenne.

En tout cas, il n’y a vraiment pas de quoi s’extasier.


Le 03/07/2014 à 15h 03

Petit calcul : prenons le chiffre le plus élevé : 6100. Divisons par le nombre de départements français et par le nombre de mois de la période :

6100 / 101 / (5 * 12) = 1,0066

On a donc dans le meilleur des cas 1 nouvel emploi par mois dans chaque département. Ça fait tout de suite moins impressionnant…

Le 24/06/2014 à 13h 04







Konrad a écrit :



Toi, tu n’as sans doute jamais codé.



Pour faire un parallèle alacon™, quand tu lances un jeu vidéo, il ne charge pas toutes les maps et textures en mémoire dès le début. Il les charge à la demande : tu crées une partie, le jeu charge la map et les textures dont il a besoin.



Là c’est la même idée : tu lances Firefox, il se lance comme d’hab. Si tu demandes à utiliser l’IDE, alors il la charge à ce moment là. Il n’y a aucune raison de la charger avant, ni de redémarrer le navigateur…





Supposer à la fois que l’IDE ne sera pas intégrée dans l’exécutable (firefox.exe), et qu’elle ne sera pas intégrée dans une dll chargée statiquement, c’est certes possible, mais ça me parait quand même bien optimiste.


Le 23/06/2014 à 13h 51







Vieux_Coyote a écrit :



Sur le reportage sur le paiement par NFC, en quoi est-ce illégale de couper l’antenne de sa carte ?





C’est marqué au dos en tout petit :

“propriété de la banque émettrice qui peut la retirer à tout moment”.

C’est donc une dégradation volontaire d’un matériel qui ne t’appartient pas.



Bon évidemment, c’est pas non plus dans l’intérêt de la banque de s’opposer à la volonté de ses clients…