Comme ce genre de pub ne génèrera que peu de revenus, elles deviendront progressivement plus nombreuses et intrusives, et on se demandera bientôt si on vient de cliquer sur “Nouvel onglet” ou sur “CDiscount”. " />
Par contre dans la liste des choses à éliminer, je me demande pourquoi ils gardent encore des versions 32bits (x86) de leur OS, ça va faire bien des années que tout le matos est passé en 64bits, et je doute que les anciennes machines supporte de faire tourner win8 ou plus. " />
Pour les pilotes qui ne sont toujours pas disponibles en 64 bits…
Le
27/08/2014 à
11h
25
charon.G a écrit :
De même elle pose le problème de la compatibilité, je suis d’accord avec elle. Si rien n’est fait d’important sur la base,des problèmes de compatibilité pourront apparaître. Les entreprises gueuleront mais aussi les utilisateurs standards.
C’est évident pour quiconque se souvient que Windows XP, sans service pack, ne supporte pas les disques durs de plus de 128 Gio…
Avec Windows 9, je vois bien à l’avenir des problèmes genre carte réseau non reconnue et donc impossibilité de télécharger les mises à jour… Ce problème, qui a toujours existé, risque de devenir particulièrement fréquent avec ce genre de politique.
Le
26/08/2014 à
14h
42
Konrad a écrit :
Tu dois utiliser un PC depuis suffisamment longtemps pour savoir qu’aucun logiciel, et a forciori aucun OS, n’existe dans une version «finale et définitive» du genre «c’est bon on n’y touchera plus». " />
Personnellement, des logiciels qui ne sont plus développés, j’en connais un paquet… (eMule, TrueCrypt…)
Quant aux systèmes, MS-DOS est abandonné, et même FreeDOS n’a plus de mise à jour depuis plus de 2 ans.
6410^12 bits, avec un taux d’erreur de 10^-15, ça fait une proba d’erreur irrécupérable de 1-(1-10^-15)^(6410^12) = 6%.
Effectivement, c’est assez effrayant. Et ça l’est d’autant plus que la majorité des disques sont estimés à un taux d’erreur de 1 / 10^14. Il est donc assez probable que 10^15 soit un peu “optimiste”…
Je bloque le referer pour emmerder les fournisseurs de liens raccourcis (que je soupçonne de bien des maux, la redirection n’est sûrement pas un cadeau pour l’utilisateur) et pour me masquer aux gros sites comme Google, Facebook et cie qui cachent justement de plus en plus l’origine des liens qui arrivent chez soi. Juste retour de ma part.
Depuis quelques versions, Firefox a des nouvelles options à ce sujet.
On peut maintenant, sans extension, limiter par exemple l’envoi du referer au site en cours et l’empêcher lorsqu’on passe d’un domaine à un autre : ainsi les sites qui en ont besoin sont contents et la confidentialité est préservée.
Je vais peux être dire une connerie, mais étant donné que j’ai vu sur je ne sais plus quel graphique que, brancher une carte graphique PCI-e 2.0 sur un port 1.1 ne bridait les perfs que de 1 ou 2%, alors j’ose a peine imaginer sur un PCI-e 3.0…
Même câblé en 8x, je ne suis pas sûr que la bande passante soit un goulot d’étranglement. Bref, segmentation artificielle, manque de concurrence, tout ca… " />
Si tu ne charges pas des textures régulièrement, effectivement, ça ne va pas changer grand-chose. Dans le cas contraire, c’est un goulot d’étranglement majeur.
Si tu maîtrise la génération des aléas qui vont chiffrer une donnée, tu peux prédéfinir les clés à utiliser pour déchiffrer une données.
Tout le monde ne se contente pas d’utiliser CryptGenRandom sans rien ajouter. Et même cette fonction, qui a beau être closed-source, n’a toujours rien révélé de suspect.
Le
18/08/2014 à
13h
22
Zimt a écrit :
“accélération matérielle (AES-Ni)”
C’est beau l’accélération matérielle ( pour faciliter l’obtention de la clé de chiffrement :) )
On est censé la récupérer comment, la clé de chiffrement ? Une mémoire flash dans le CPU ? Une instruction non documentée par Intel ?
Et puis c’est pas super économique pour Intel, vu que pour des clés de 256-bits, il y a 224 octets à stocker pour le chiffrement, et autant pour le déchiffrement… Sans compter qu’on ne sait même pas combien en stocker, vu que ça varie en fonction du nombre de tours, et donc de la taille de la clé.
On attend donc tes explications… à moins que ce ne soit que du FUD…
Dans le même genre, souvent utilisée par la rédaction de NextINpact, il y a l’expression “être de la partie”, alors que d’après le Larousse, cette expression signifie “être du métier”.
J’ai dit que je ne débattrai plus sur le sujet, je ne débattrai donc plus.
On a quand même le droit de donner notre avis, même si ça ne te plait pas.
chaps a écrit :
Il existe une norme, elle est rigoureuse. Utiliser la même unité pour exprimer deux quantités différentes est ambigüe et incorrect. Ce n’est pas une opinion, c’est un fait.
Les seuls fabricants de matériel à avoir adopté cette norme sont ceux qui ont un intérêt économique à le faire. Ça aussi c’est un fait.
chaps a écrit :
Voilà. Après si vous ça vous plait de tout mélanger et que vous ne voyez pas l’intérêt de respecter une norme, c’est comme ça. Mais y’a pas de quoi en plus s’en vanter…
Tu es le seul ici à tout mélanger. Tu confonds l’auteur de l’article et Crucial.
Crucial annonce 4 Go, alors c’est 4 Go. Crucial se trompe ? Alors plains-toi à Crucial, pas à nous.
Et tu es le seul ici à te vanter de quelque chose (le respect d’une “norme”).
Le
11/08/2014 à
14h
14
chaps a écrit :
…
Crucial exprime une quantité en Go. Un journaliste rigoureux utilisera donc la même notation.
Si tu veux te plaindre, fais-le à Crucial.
En fait, l’apparition des préfixes binaires n’a fait qu’augmenter le nombre de mécontents…
Avant, il y avait les disquettes de “1,44 Mo” qui faisaient en réalité 1440 Ko (1440 * 1024 octets), et je n’ai jamais vu quelqu’un s’en plaindre.
c’est pas Gen!Sys ? enfin ça n’a pas plus de sens en fait " />
En fait, ici, on peut voir d’un côté le texte “Terminator Genisys”, et de l’autre la chaise de Arnold et l’image du bouton d’abonnement afficher un point d’exclamation.
J’ai donc l’impression que la lettre i n’est utilisée que par commodité ou en cas de caractère interdit et qu’en réalité, c’est un point d’exclamation.
Pour ce qui est du multiplexage, quelles différences y a-t-il entre SPDY, HTTP 2.0, et le vieux “pipelining” qui n’est toujours pas activé par défaut dans Firefox ?
Ca donne quand même une petite impression de redondance tout ça…
ou sinon créer un compte yopmail/google/hotmail/yahoo/spamgourmet ça prend 2 secondes…
Euh, un compte Google ou Outlook, c’est plus que 2 secondes de nos jours… Il faut absolument rentrer 356 informations perso, “valider” le compte à l’aide d’une autre adresse mail (à supposer qu’on en ait déjà une qu’on accepte de lier à la nouvelle) ou d’un numéro de tél…
Par contre, les mails jetables, effectivement c’est pas ce qui manque.
Le
05/08/2014 à
14h
24
Pour ma part, le site ne fonctionne pas : impossible de taper l’adresse du destinataire, et le type de personne choisi n’est pas validé.
Je trouve que des performances des dizaines de fois supérieures pour le GPU alors que le CPU s’est doté d’une nouvelle instruction pratiquement juste pour ce cas, c’est au contraire assez parlant.
Où ça, “des dizaines de fois” ? Mon lien montrait quelque chose comme x5 pour le GPU… seulement dans le meilleur des cas.
De plus, sachant que le gars a probablement utilisé une implémentation similaire pour le CPU et le GPU, sur un matériel de la même époque et de la même gamme de prix, dire que c’est une mauvaise implémentation, c’est juste de la mauvaise foi.
Les 900 Mo/s dont je parle ne concernent, comme je l’ai dit, qu’une implémentation software, donc sans instructions AES.
Avec ces instructions, les benchs montrent en général dans les 4 Go/s… sans perdre de temps à appeler le driver ou à copier des données.
Pour le SSL, sachant que la taille des paquets IP est au plus de 1500 octets, on est largement en-dessous du point où utiliser le GPU est rentable. Et même en chiffrement de fichier (pratique plus courante que tu sembles l’imaginer : il n’y a qu’à voir ce qu’il s’est passé avec la fin de TrueCrypt), il n’est pas rare d’avoir des requêtes de 4 Ko ou moins.
Et dans ces cas-là, utiliser le GPU est au contraire une source de ralentissement.
Bien souvent, le parallélisme massif n’est efficace que sur des grosses quantités de données. Pour le GPU, c’est facile à comprendre :
fonctions de synchronisation avec éventuellement réveil d’un thread (et donc chargement du contexte)
appel d’une API qui elle-même va adresser une requête au pilote
transfert des données de la RAM vers la VRAM
Il n’y a que ce dernier point qui est résolu avec les APU. Étant donnés les temps d’exécution affolants des 2 premiers points, c’est peu, et du coup, intéressant seulement pour les grosses requêtes.
HarmattanBlow a écrit :
Oui enfin les types auraient pu choisir d’aligner des CPU (s’ils avaient été stupides). Ils ont au contraire aligné des GPU.
Il n’empêche que comparer 1 CPU à 8 GPUs, c’est pas très malin.
Et il est encore moins malin de me reprocher de prendre des exemples “anecdotiques” selon toi (vidéo, traitement d’image, jeux, cryptographie…) quand toi tu prends ici le cas du crackage de mot de passe.
C’est à se demander ce que tu fais sur ton PC… " />
Au fait, comment as-tu utilisé les instructions SIMD la fois où tu as eu à le faire ? ASM ou intrinsics ?
Pour ma part, j’aurais eu du mal à voir l’intérêt de l’AVX2 (et des autres jeux d’instructions) sans la doc de Intel sur les intrinsics…
Le
02/08/2014 à
22h
28
HarmattanBlow a écrit :
Sauf que dans la réalité ce genre de choses n’est pas l’application finale mais un sous-composant de l’application. Voilà ourquoi dans la réalité SSE2 et consorts sont quantité négligeable.
Oui la boucle d’AES est très petite. Et alors, ça change quoi ?
Il n’en reste pas moins que d’autres algos peuvent avoir une boucle de plus de 100 lignes et être complètement optimisables par instructions SIMD.
HarmattanBlow a écrit :
Non, je t’ai dit et je te répète qu’un algorithme conçu expressément pour être inefficace sur GPU n’est pas représentatif. Ce qui est l’évidence même.
AES n’a pas été conçu pour être inefficace sur GPU. Tu ne serais pas en train de confondre avec scrypt ?
HarmattanBlow a écrit :
Parce que le type utilise une antiquité (datant probablement d’avant le support des entiers sur CG) et que l’implémentation est sans doute mauvaise. Les implémentations modernes d’AES sur GPU crachent des dizaines de Gbps contre les quelques dizaines de Mbps sur CPU de ton lien.
En implémentation software de AES, mon i7 2600k crache dans les 900 Mo/s. Et des “dizaines de Gbps”, quand tu ramènes ça à des octets, ça fait tout de suite moins impressionnant…
On en revient donc à une différence qui n’est pas si fabuleuse, et limitée aux cas où les quantités de données sont assez grosses.
HarmattanBlow a écrit :
Aujourd’hui tous ceux qui font du déchiffrement de mdp en masse le font sur des boîtes à GPU contenant environ huit CG alignées. Les perfs sont tout simplement incomparables.
Si tu veux comparer une machine avec plusieurs cartes graphiques, fais la comparaison avec une machine multi-CPU. Sinon, comme tu le dis, c’est incomparable, parce qu’il n’y a rien à comparer.
Le
02/08/2014 à
21h
27
HarmattanBlow a écrit :
Ton exemple de Serpent sonne bien mais en réalité c’est un cas particulier parce que 99% du temps CPU doit être occupé par un code de 20 lignes, ce qui est exceptionnel. Et de toute façon les perfs restent inférieures à celles obtenues sur GPU, de très loin.
En comparaison, Serpent est au contraire bien plus complexe que AES ou Twofish, et même une version compacte prendrait entre 200 et 300 lignes de code.
Quant aux perfs sur GPU, tu devrais peut-être jeter un œil ici. Et encore, si le gars avait disposé des instructions AES, son implémentation CUDA aurait été plus lente dans tous les cas.
Tu pourras toujours dire que c’est à cause des transferts de données sur PCIe, que les APU d’AMD vont résoudre ça… Et je serai bien content qu’un jour ce soit le cas. Mais pour l’instant, quiconque a besoin de performance ne se penchera pas sur ce genre de puce.
Le
02/08/2014 à
18h
40
HarmattanBlow a écrit :
Bien sûr. Mais ça reste marginal.
Windows c’est marginal ? Pourquoi réclamer le SSE2 comme prérequis à Windows 8.1 si c’est juste pour 2 ou 3 bricoles isolées ?
La cryptographie aussi n’a plus rien de marginal, et la majorité des librairies et applications actuellement maintenues dans ce domaine utilisent au moins des instructions SSE2.
Les jeux aussi c’est marginal ? Tu en connais beaucoup, des moteurs 3D récents qui n’utilisent pas la moindre instruction SIMD ?
La lecture de vidéo est marginale aussi ? FFmpeg, présent dans les principaux lecteurs actuels, utilise un grand nombre d’optimisations SIMD.
HarmattanBlow a écrit :
Formidable nouvelle pour les trois algorithmes de crypto qui en auront besoin. Je suis sûr que çà accélérera de 30% la partie crypto de la gestion du réseau qui elle-même représente 10% de la gestion du réseau, qui elle-même représente 5% de l’activité de navigation. Soit un fabuleux gain de 1,5%.
Ou le minage de… Ah, non, on mine sur GPU.
Plusieurs implémentations optimisées SSE2 de Serpent montrent une accélération d’au moins 2,5x.
Grâce aux instructions AVX2, on peut maintenant espérer le même genre d’accélération dans la plupart des autres algos de crypto.
Et je ne sais pas si t’es au courant, mais la crypto ne se résume pas au SSL…
Quant au minage… Litecoin utilise scrypt avec comme paramètres N=1024, p=1, r=1. C’est ridicule, ça enlève tout l’intérêt de cette fonction qui a justement été conçue pour être pratiquement impossible à utiliser sur GPU.
HarmattanBlow a écrit :
Plus j’y réfléchis, plus j’ai l’impression que, si, on peut bel et bien trouver des algorithmes parallèles pour presque tous les problèmes.
Ben moi, plus j’y réfléchis, plus j’arrive à la conclusion inverse.
Tu crois que c’est juste de la flemme de la part des développeurs s’il y a autant d’applications qui, malgré leur besoin en performance, n’utilisent jamais plus de 2 ou 3 threads actifs ?
Le
02/08/2014 à
16h
58
HarmattanBlow a écrit :
Ca fait plus de deux décennies que je programme et j’ai fait à peu près de tout. Y compris nombre d’applis où les performances étaient un vrai défi. Sais-tu combien de fois j’ai utilisé ces instructions SIMD ? Une fois. Une fois en plus de deux décennies. Ce fut la seule et unique fois où j’en ai eu besoin. A contrario la majeure partie de mes projets depuis plusieurs années incluent des systèmes massivement parallèles.
Alors, oui, cette unique fois-là c’était important. Pour les 0,1% de programmes qui font des calculs vectoriels par groupes de 4 ou 8 sur le CPU (de plus en plus rare), ça permet un joli gain. Mais autant dire que AVX2 me laisse complètement froid et que même dans dix ans ça n’aura qu’une utilité marginale.
Dans ce cas, pourquoi suggérer “Et remplaçons les par mille pentium 2 et unités SIMD.” ?
Windows 8.1 nécessite aujourd’hui le SSE2, et une grande partie des applications réclamant des performances en profite, comme la cryptographie, les applications de traitement de l’image, la vidéo, certains jeux…
Bon nombre d’algos ne sont pas vectorisables à cause du fait que certains résultats intermédiaires sont utilisés comme indices de tableau (très fréquent en crypto). Et c’est justement le gros changement apporté par l’AVX2.
HarmattanBlow a écrit :
Dans le même temps les performances parallèles ont été multipliées par 100. Alors quelle est la bonne direction ?
Les performances sur quoi ? Quel algo ? Quel type de calcul ?
Tout n’est pas parallélisable, et même quand ça l’est, il faut tenir compte des coûts en temps d’exécution dus à la synchronisation des threads, des accès séquentiels à la RAM, etc. Dans certains cas, paralléliser peut même donner un résultat plus lent.
Cela dit, il reste clairement des trucs à faire. Je ne connais par exemple aucun algo de hash permettant le moindre parallélisme sur un seul flux de données.
Le
02/08/2014 à
14h
02
HarmattanBlow a écrit :
C’est du gaspillage de silicium, virons ces micro-optimisations silicophages, ces nouvelles instructions à la noix et ces caches démesurés.
Tu devrais justement jeter un coup d’œil à ces “nouvelles instructions à la noix”. L’AVX2 apporté par Haswell devrait permettre un bon de performances aussi important que l’a permis le SSE2, grâce à des instructions qui étaient attendues depuis longtemps.
Mais maintenant, il faut être patient, le temps que les gens s’équipent (y compris les développeurs), que les compilateurs prennent correctement en charge les instructions et intrinsics correspondants…
En plus de ça, il faut aussi pouvoir mettre à jour son propre compilateur, ce qui n’a rien d’évident. Moi, je me retrouve bloqué avec la version 4.7 de GCC parce que les versions suivantes produisent un code beaucoup plus lent sur tout ce que je fais.
Voilà pourquoi il peut y en avoir pour plusieurs années. Et voilà pourquoi ce genre de progrès ne risque pas d’apparaitre sur les benchmarks.
A côté de ça, il y a les accès à la RAM qui continuent de se faire laborieusement en 64 bits par canal, d’où l’intérêt primordial de “ces caches démesurés”.
Mais si tu as la solution à tout ça, qu’est-ce que tu attends ? Tu n’as qu’à proposer ta super nouvelle architecture à AMD, je crois qu’ils en auraient bien besoin. " />
Ils avaient rejoint le réseau en janvier dernier et le message est simple : tous ceux qui ont ouvert ou utilisé des services cachés entre février et le 4 juillet doivent présumer qu’ils ont été touchés.
Donc pas de faille pour ceux qui n’utilisaient pas les services cachés.
les pirates ne devraient pas savoir quelles pages ont été chargées par un utilisateur particulier.
Donc finalement, tout ceci ne concerne pas les utilisateurs.
Selon le communiqué, la faille de sécurité permet en effet une modification des en-têtes du protocole de communication. Or, rien n’empêche techniquement ces en-têtes d’avoir été utilisés par d’autres pirates pour briser l’anonymat.
Oui enfin tout ce qu’on veut savoir, c’est si des IP d’utilisateurs ont pu être récupérées ou pas. A la base, Tor, ça sert quand même à ça…
En tout cas, quand on sait que le JO Lois & Décrets pas loin de 200 pages (en moyenne) du mardi au dimanche, le numérique est une bénédiction pour chercher un truc dans ce foutoir.
Certains d’entre nous se font traiter de “pisseurs de code”, mais eux, c’est des pisseurs de lois !
SATA III ou SATA 600 : 6 Gbit/s Debit théorique 768 Mo/s Débit pratique : 600 Mo/s
Source Wikipedia
Bon je reprends. " />
Tu as corrigé doom_Oo7, mais ce n’est pas lui qui a fait l’erreur, celle-ci se trouve dans les tableaux parce que la traduction a été faite à l’arrach’.
Le
29/07/2014 à
12h
56
sniperdc a écrit :
Giga bit et non Giga byte " />
Toute les connexions de données sont exprimées en bit. Pour avoir sa capacité en Byte(octet) il faut le diviser par 8.
C’est tout de suite moins glam’s " />
Regarde la 2ème ligne des tableaux…
Le
29/07/2014 à
12h
53
Nissash a écrit :
je crois qu’il parle du fait que le tableau ait mal été rédigé :
c’est écrit 6Go/s au lieu de 6Gb/s
6Go/s = 48Gb/s
le SATA c’est 6Gbps et non 6GBps. bit/Byte (byte =octet)
Ah oui tiens, j’avais pas vu… " />
Le
29/07/2014 à
12h
39
doom_Oo7 a écrit :
Mhmh… SATA 6 Go/s… ça fait sérieux…
Ca peut accélérer le transfert des commandes et du coup augmenter un peu le débit global dans certains cas. Regarde le premier tableau de résultats ici.
Il faudrait également l’option “choc électrique” comme pour les colliers de chiens.
Ainsi, avec la permission des parents, la maîtresse aura le code de déblocage de chaque gamin et pourra (enfin) faire taire les sauvageons.
Oui mais pour éviter que les enfants ne trouvent la parade en glissant un isolant sous le bracelet, il faudrait que les électrodes leur rentre carrément dans le bras. Enfin ce n’est pas un problème, y’en a qui se percent bien le lobe de l’oreille, alors pourquoi pas le poignet ?
Juste le temps d’écrire la prochaine news sur les chiffres des assembleurs de PC.
Et puis un jour, dans un lointain futur, une enquête révolutionnaire viendra montrer que oui, il y a encore des gens qui assemblent ou mettent à jour leur PC eux-mêmes, ou le font assembler par des proches ou par des petites boutiques.
Le
16/07/2014 à
13h
38
levhieu a écrit :
Je sais, je suis HS.
Et aussi ma vue a vraiment baissé (note pour moi: nettoyer les lunettes à tout hasard…)
C’est quoi le machin sur lequel le processeur est posé ?
Je dirais une galette de silicium : un métal aux reflets noirâtres utilisé pour les transistors. J’imagine que c’est une manière de montrer la transformation effectuée entre le minerai et le produit final… (même si ça revient à faire l’impasse sur tous les autres matériaux utilisés)
Tu as peut-être lu, mais ce n’est pas du tout ce que tu dis. Tu parles d’images dédoublées alors que je justement, avec G-Sync il n’y en a pas. D’ailleurs il est inutile de parler de 50Hz ou de 60Hz avec G-Sync, puisque la grosse nouveauté est justement que le taux de rafraichissement des images à l’écran n’est plus constant, mais variable !
Bref, tu as lu, tu n’as rien compris " />
Edtech a écrit :
Il explique le problème et toi tu parles de la solution, faut vous mettre d’accord " />
Merci Edtech, mais peut-être aurais-je dû être plus explicite là-dessus. " />
En fait, j’ai souvent un jeu qui me revient à l’esprit : Suikoden, premier du nom. Scrolling 2D plein écran en 50 Hz à chaque mouvement du bonhomme : sur un ancien écran où je pouvais basculer en 50 Hz, j’ai eu l’occasion de voir la différence par rapport à un réglage de l’écran en 60 Hz : c’est vraiment le jour et la nuit en terme de confort visuel. Si G-Sync est compatible avec l’émulateur, ça pourrait résoudre le problème (mais malheureusement, ce ne sera pas possible avec mon écran actuel " />).
Le
03/07/2014 à
20h
20
Magyar a écrit :
heu, pas du tout. Je vous conseille de relire le très bon article que HFR à réaliser : Nvidia G-SYNC en test.
J’ai lu, et c’est exactement ce que je dis.
Le
03/07/2014 à
16h
49
yvan a écrit :
Par rapport à la synchro verticale logicielle ça apporte quoi? Je n’ai pas bien compris ce sujet.
La synchro logicielle attend qu’une image soit prête avant de permettre à la carte de l’afficher. Sans ça, l’image précédente se retrouve affichée en partie, le reste de l’écran affichant alors les lignes de la nouvelle image : lors d’un mouvement, ça donne donc une sorte coupure horizontale dont la hauteur varie en fonction du temps que met la nouvelle image à être prête.
Ici, la synchro ne concerne plus les données à afficher mais la fréquence de rafraichissement. Par exemple, si tu as un jeu prévu pour fonctionner en 50 Hz et que ton écran en affiche 60, tu vas avoir une image sur 5 qui sera dédoublée. Du coup, dans certains cas comme un scrolling plein écran régulier, ça peut donner une impression de saccade rapide assez désagréable.
Pour faire un parallèle alacon™, quand tu lances un jeu vidéo, il ne charge pas toutes les maps et textures en mémoire dès le début. Il les charge à la demande : tu crées une partie, le jeu charge la map et les textures dont il a besoin.
Là c’est la même idée : tu lances Firefox, il se lance comme d’hab. Si tu demandes à utiliser l’IDE, alors il la charge à ce moment là. Il n’y a aucune raison de la charger avant, ni de redémarrer le navigateur…
Supposer à la fois que l’IDE ne sera pas intégrée dans l’exécutable (firefox.exe), et qu’elle ne sera pas intégrée dans une dll chargée statiquement, c’est certes possible, mais ça me parait quand même bien optimiste.
1471 commentaires
Firefox : comment fonctionnent les nouvelles publicités ?
27/08/2014
Le 27/08/2014 à 12h 11
Comme ce genre de pub ne génèrera que peu de revenus, elles deviendront progressivement plus nombreuses et intrusives, et on se demandera bientôt si on vient de cliquer sur “Nouvel onglet” ou sur “CDiscount”. " />
Windows Threshold : la préversion concentre de nombreux espoirs
26/08/2014
Le 27/08/2014 à 11h 28
Le 27/08/2014 à 11h 25
Le 26/08/2014 à 14h 42
Seagate commence à livrer les « premiers disques durs de 8 To au monde »
26/08/2014
Le 26/08/2014 à 21h 12
Les publicités bientôt dans Firefox, mais aux conditions de Mozilla
25/08/2014
Le 25/08/2014 à 13h 56
Le 25/08/2014 à 13h 19
AdDetector : la bataille s’organise contre le contenu sponsorisé
22/08/2014
Le 23/08/2014 à 01h 48
Haswell-E : les fuites se multiplient, quid de la gestion des ports PCIe 3.0 ?
21/08/2014
Le 22/08/2014 à 10h 02
Boxcryptor s’améliore et gère désormais Active Directory et LDAP
18/08/2014
Le 18/08/2014 à 14h 37
Le 18/08/2014 à 13h 22
Quand l’IPv4 et la saturation des tables de routage posent problème
14/08/2014
Le 14/08/2014 à 23h 56
DDR4 : des kits de Crucial arrivent en boutique, dès 48,95 euros pour 4 Go
08/08/2014
Le 11/08/2014 à 18h 45
Le 11/08/2014 à 14h 14
Terminator Genisys : Arnold Schwarzenegger reviendra le 1er juillet 2015
07/08/2014
Le 07/08/2014 à 09h 54
HTTP 2.0 débutera sa phase de tests dès le mois prochain
06/08/2014
Le 06/08/2014 à 15h 20
Pour ce qui est du multiplexage, quelles différences y a-t-il entre SPDY, HTTP 2.0, et le vieux “pipelining” qui n’est toujours pas activé par défaut dans Firefox ?
Ca donne quand même une petite impression de redondance tout ça…
Ganondorf débarque dans Hyrule Warriors, avec une semaine d’avance
05/08/2014
Le 06/08/2014 à 11h 39
Avec Leak, envoyez des mails anonymes… dans une certaine limite
05/08/2014
Le 05/08/2014 à 15h 06
Le 05/08/2014 à 14h 24
Pour ma part, le site ne fonctionne pas : impossible de taper l’adresse du destinataire, et le type de personne choisi n’est pas validé.
Testé avec Firefox 31 et IE 11.
AMD annonce de nouveaux APU et se moque un peu du monde
01/08/2014
Le 03/08/2014 à 11h 06
Le 02/08/2014 à 22h 28
Le 02/08/2014 à 21h 27
Le 02/08/2014 à 18h 40
Le 02/08/2014 à 16h 58
Le 02/08/2014 à 14h 02
Microsoft publie EMET 5.0 pour combattre l’exploitation des failles
01/08/2014
Le 01/08/2014 à 11h 47
Tor piraté, l’ampleur des dégâts est inconnue
31/07/2014
Le 31/07/2014 à 12h 26
Ils avaient rejoint le réseau en janvier dernier et le message est simple : tous ceux qui ont ouvert ou utilisé des services cachés entre février et le 4 juillet doivent présumer qu’ils ont été touchés.
Donc pas de faille pour ceux qui n’utilisaient pas les services cachés.
les pirates ne devraient pas savoir quelles pages ont été chargées par un utilisateur particulier.
Donc finalement, tout ceci ne concerne pas les utilisateurs.
Selon le communiqué, la faille de sécurité permet en effet une modification des en-têtes du protocole de communication. Or, rien n’empêche techniquement ces en-têtes d’avoir été utilisés par d’autres pirates pour briser l’anonymat.
Oui enfin tout ce qu’on veut savoir, c’est si des IP d’utilisateurs ont pu être récupérées ou pas. A la base, Tor, ça sert quand même à ça…
La version papier du Journal Officiel pourrait disparaître en 2016
29/07/2014
Le 29/07/2014 à 13h 41
Western Digital : des HDD RED jusqu’à 6 To, des versions Pro garanties 5 ans
29/07/2014
Le 29/07/2014 à 13h 22
Le 29/07/2014 à 12h 56
Le 29/07/2014 à 12h 53
Le 29/07/2014 à 12h 39
492ème édition des LIDD : Liens Idiots Du Dimanche
26/07/2014
Le 26/07/2014 à 22h 21
Paris passe progressivement son stationnement au paiement par mobile
26/07/2014
Le 26/07/2014 à 11h 56
Et si on n’a pas de smartphone, on n’a pas le droit de se garer ?
Le récap’ des tests : c’est dans la boîte
24/07/2014
Le 24/07/2014 à 23h 25
Le RV05 (d’après le lien, c’est plus précisément RV05B-W) a déjà été présenté dans cette actu.
Alors Kevin, un petit coup de fatigue ? " />
La distribution Tails, spécialisée dans l’anonymat, comporte des failles 0-day
24/07/2014
Le 24/07/2014 à 17h 51
Ondes électromagnétiques : une élue écolo s’inquiète des objets connectés
24/07/2014
Le 24/07/2014 à 16h 17
Intel dévoile une nouvelle gamme de SSD : les Pro 2500
22/07/2014
Le 22/07/2014 à 16h 58
Intel annonce d’excellents résultats : le PC de retour, le mobile dégringole
16/07/2014
Le 16/07/2014 à 14h 37
Le 16/07/2014 à 13h 38
Légion d’honneur : Christine Albanel décorée par Aurélie Filippetti
15/07/2014
Le 16/07/2014 à 12h 53
Curieusement, il n’y a pas beaucoup de politiciens à avoir refusé la légion d’honneur…
Canal+ menace l’auteur du logiciel Captvty
12/07/2014
Le 12/07/2014 à 17h 22
Il faut bien que Madame la Directrice Juridique Édition justifie son (gros) salaire…
TrueCrypt est mort, vive CipherShed
08/07/2014
Le 09/07/2014 à 10h 03
ROG Swift PG278Q : l’écran G-Sync de 27″ d’Asus arrive pour 799,99 €
03/07/2014
Le 04/07/2014 à 10h 10
Le 03/07/2014 à 20h 20
Le 03/07/2014 à 16h 49
Création d’emplois en France : Amazon, Free et Apple dans le top
03/07/2014
Le 03/07/2014 à 15h 16
Le 03/07/2014 à 15h 03
Petit calcul : prenons le chiffre le plus élevé : 6100. Divisons par le nombre de départements français et par le nombre de mois de la période :
6100 / 101 / (5 * 12) = 1,0066
On a donc dans le meilleur des cas 1 nouvel emploi par mois dans chaque département. Ça fait tout de suite moins impressionnant…
Mozilla propose un IDE intégré à Firefox pour les développeurs web
24/06/2014
Le 24/06/2014 à 13h 04
487ème édition des LIDD : Liens Idiots Du Dimanche
21/06/2014
Le 23/06/2014 à 13h 51