votre avatar

vampire7

est avec nous depuis le 19 janvier 2007 ❤️

1471 commentaires

Le 17/09/2014 à 10h 10







Grumlyz a écrit :



Pour l’instant, mon TN fonctionne très bien, aucune raison de changer pour rester sur du LCD.

Quand je changerais ce sera pour avoir une vraie évolution sur la qualité d’image, donc ce sera OLED ou rien.





Avant d’avoir du PVA sous les yeux, je pensais moi aussi qu’il n’y aurait que peu de différence… Aujourd’hui, autant le TN que l’IPS me font <img data-src=" />


Le 16/09/2014 à 13h 08







Grumlyz a écrit :



Pour l’instant, je ne vois aucun intérêt à une plus grande définition, même le WQHD c’est trop grand. Encore 2 ou 3 ans histoire d’avoir quelques contenus et des cartes graphiques qui puissent gérer la 3D avec autant de pixels.





L’intérêt ? Un ratio qui ne soit pas celui décidé par l’industrie du cinéma (1920x1200), ou bien ne pas avoir des pixels trop visibles sur un 27 ou 30”…



En tout cas, si du 1920x1080 te suffit, tu trouveras facilement ton bonheur si tu essaies le S-PVA (attention à ce que ce ne soit pas du PVA tout court, lequel laisse des trainées visibles sur chaque mouvement d’image).


Le 12/09/2014 à 18h 56







Grumlyz a écrit :



Pour de l’OLED, je suis près à y mettre jusqu’à 500€ pour du 27”.

L’IPS, j’ai essayé et j’ai utilisé le délais de rétractation.



Ça ou ça c’est juste inacceptable (Dell U2713hm)





J’ai aussi essayé un IPS, et comme toi : utilisation du délai de rétractation.



Et après certains osent dire qu’il n’y a pas de problème avec les noirs des dalles IPS, alors que même les zones les plus sombres de l’écran sur ta seconde image sont tout sauf noires…

As-tu essayé des dalles S-PVA ? Là tu aurais des noirs pratiquement aussi sombres que le contour de l’écran…

Malheureusement, la définition maximale qu’on trouve aujourd’hui pour le PVA est du 1920x1080. A mes yeux, c’est une régression technologique majeure…



Avec l’OLED, tu auras effectivement réactivité et contraste, mais pour la justesse des couleurs, ça risque d’être temporaire…


Le 16/09/2014 à 19h 29







arno53 a écrit :



Le fait de ne pas faire de C/C++/ASM n’est pas problématique …





Si, complètement. Pas seulement pour des raisons évidentes de performances (enfin, évidentes quand on code des applications critiques à ce sujet…), mais aussi pour le simple fait que sans code natif, ton processeur ne t’appartient plus, puisque ce n’est plus toi qui choisit les instructions exécutées.



Bien sûr, toi tu penseras malgré tout que ton processeur t’appartient, que tu n’as pas de problème de performances (évidemment, si tu n’utilises aucune appli qui en demande…). Aucun d’entre nous ne changera d’avis.


Le 16/09/2014 à 19h 03







charon.G a écrit :









Les sandboxes ou le code managé n’empêchent pas les 2 problèmes de sécurité que j’ai soulevés de perdurer. Et même s’il n’y avait plus que des applications WinRT en code managé, on reste toujours par exemple avec un pare-feu qui autorise par défaut toutes les requêtes sortantes. Et si on les interdit, on n’a aucune notification, toutes les règles doivent être écrites à la main. Un comble !

En quoi mes données sont protégées si elles peuvent sortir de ma machine toutes seules ? En quoi mes données sont protégées si je ne peux plus les chiffrer avec une solution open-source ?



Le système et les applications sont de plus en plus protégés, mais les données de moins en moins. Et WinRT sert exactement à ça : donner un sentiment de sécurité pendant Microsoft s’approprie ni plus ni moins que nos données et notre matériel.



Tu comptes aussi dire que Microsoft a tenté d’améliorer la sécurité avec le Secure Boot ?




  • Hé chef, on fait quoi avec les tablettes ? On touche rien ? Y’a quand même Google et Apple qui risquent de nous piquer le marché…

  • Ah ouais les tablettes… Bon ben c’est simple : il n’y a qu’à bricoler un petit truc pour empêcher les autres systèmes de s’installer. Et puis comme d’habitude, on demandera aux commerciaux de faire passer ça pour une “security feature”.

  • Je crois que j’ai déjà le nom chef : “secure boot”. Qu’est-ce que vous en dites ? Par contre, faudrait implanter un truc directement dans l’UEFI. Comment on fait ?

  • Facile ! On n’a qu’à dire aux constructeurs que s’ils veulent avoir un joli auto-collant Windows 8, il va falloir qu’ils rajoutent ça dans leur UEFI.

  • Vous avez réponse à tout chef !

  • Hé oui, je ne suis pas le chef pour rien… Allez, implémente-moi ça correctement si tu ne veux pas être viré !



    Il est encore possible de se moquer de l’horreur que représente l’arrivée du Secure Boot. Et pourtant ce n’est rien à côté de WinRT. Avec ça, Microsoft achève son rêve d’un contrôle total de nos machines. Et pour moi ce sera bye-bye, même si ça m’emmerde de devoir jeter des années d’apprentissage.


Le 16/09/2014 à 17h 32







charon.G a écrit :



Sauf que si le mec fait des conneries avec son certificat il va s’attirer des problemes voir mon message au dessus.





Et comment pourrait-on savoir s’il fait “des conneries” ? On a pourtant déjà eu plusieurs exemples de virus énormes, tant en possibilités qu’en taille de code, n’être découverts que plusieurs années après.

Répandre un virus sans personne pour le détecter, c’est si facile… J’en ai pris conscience après avoir lutté à plusieurs reprises contre un gros paquet de faux positifs signalés par VirusTotal sur une de mes principales applications.







charon.G a écrit :



le bit NX n’arrête pas l’exploitation de tous les buffer overflow, comme l’ASLR d’ailleurs. La seule méthode efficace à l’heure actuelle c’est le code managé.





A chaque nouvelle fonctionnalité de sécurité, qu’elle soit matérielle ou logicielle, on peut lire plein de gens clamer haut et fort que ça en est fini des virus, qu’on va enfin avoir un système sûr, etc. Seulement c’est pas le cas. Les virus ont juste évolué.







charon.G a écrit :



Tu peux le faire avec applocker.





Ce qui est inutile puisque, comme je le disais, c’est déjà géré par NTFS. Clic droit sur un dossier, et quelques (dizaines de) clics plus tard, aucun fichier .exe situé dans le dossier ne pourra être exécuté.

En tout cas, si c’était fait par défaut, ça réduirait fortement le nombre de cachettes possibles pour les virus, sans limiter pour autant les accès et les possibilités des applications légitimes. Pourtant, ce n’est pas fait.







charon.G a écrit :



La sandbox est surement mille fois plus efficace que le système de compte.





Une sandbox n’est ni plus ni moins efficace que le système de compte, ça ne vise tout simplement pas les mêmes choses.







charon.G a écrit :



Ce qui est marrant c’est que si Microsoft avait imposé une sandbox Win32 et cassait le comportement des applications tu aurais été un des premiers à leur gueuler dessus <img data-src=" />





Si ça me donne moins de libertés sur mon système, oui. Et plus encore si ça me supprime l’accès à mon matériel, matériel qui n’appartient pas à Microsoft.

Par contre, dans la mesure où ils ne me suppriment aucune possibilité, s’il me faut corriger l’une des applications que je développe pour la rendre compatible, ça ne me pose aucun problème.


Le 16/09/2014 à 16h 10







charon.G a écrit :



Tu dis un peu n’importe quoi. Ayant développé un driver et l’ayant fait passer en WHQL je pense savoir de quoi je parle par contre.



Déjà ça n’enrichit pas plus les fournisseurs de certificats. Les constructeurs ont déjà des certificats depuis des lustres. Un certificat verisign est obligatoire pour accéder au portail Windows update et donc soumettre son pilote à la certification WHQL.

Pour la certification des pilotes 64 bits le but n’a jamais été d’apporter plus de stabilité,ça change rien à ce niveau.



Pour la sécurité je ne suis pas d’accord cela a permis d’éviter un bon nombre de rootkits. Bien sur certains certificats de constructeurs ont été compromis et détourné. je pense à Realtek en particulier mais la situation aurait été bien pire si on pouvait installer n’importe quel driver vu qu’il obtient un maximum de droits. Pour Realtek ils ont révoqué le certificat et le problème était réglé. Personne n’a jamais dit que c’était une protection impénétrable. Le système de certificats est basé uniquement sur la confiance.



Pour le code natif il y a eu déjà eu ce debat sur une autre news. A la publication du billet de joe duffy une développeuse de midori était intervenue. En gros le code natif sera interdit au niveau de la programmation système uniquement. ça veut dire entre autre plus de bsod et de buffer overflow. Mais au niveau de la plateforme de développement Win32/WinRT tu pourras toujours coder en C/C++ si tu le veux. La situation ne changera pas au niveau applicatif.





Je te retourne le compliment : tu dis un peu n’importe quoi. Les certificats sont à renouveler régulièrement. Pour eux, c’est devenu une rente.

Et rien n’empêche quelqu’un qui a sorti la CB de développer un pilote signé vérolé.

Je n’ai pas développé moi-même de pilote mais j’ai régulièrement le nez dans les sources d’un pilote libre assez populaire et discute régulièrement avec son auteur.



De toute façon, je ne pensais pas tellement aux “constructeurs” pour qui tout est déjà une histoire de fric… Je pensais plutôt aux développeurs de logiciels libres qui se retrouvent coincés à cause de ça, à devoir choisir entre un certificat gratuit qui ne sera pas reconnu partout, ou un certificat payant qui, de ce fait, ne permet plus vraiment de qualifier le logiciel de “libre”.



Plus de code natif pour la programmation système ? Oui donc en fait, tu es en train de dire que le code natif pour les applications, ce sera toujours possible, mais pas pour les drivers ?

“Programmation système”, ça ne veut pas dire grand-chose. Est-ce qu’un logiciel comme Classic Shell fait de la “programmation système” ? Et un logiciel comme TrueCrypt, qui certes sert à traiter des données, mais qui a aussi besoin d’un accès direct au disque dur et d’un pilote pour la création du volume ?



Les BSOD étaient censés être limités grâce à la signature obligatoire des pilotes. Aujourd’hui, on sait que la majorité des BSOD ont pour origine un problème matériel et que c’était déjà le cas à l’époque de Windows XP.

Et ça n’empêche pas de continuer à en voir, parfois pour des raisons risibles : j’en ai eu sous Windows 8.1 il y a quelques jours. Mon premier BSOD sous ce système. La raison ? Une mauvaise configuration de mon ramdisk qui fait que les variables d’environnement TEMP/TMP pointaient vers un volume inexistant. Ça n’a pas empêché le système de tourner une bonne heure comme ça…



Quant aux buffer overflows, c’était censé être résolu avec le “bit NX”, mais Microsoft ne l’active par défaut, encore aujourd’hui, que pour ses programmes.

S’ils en avaient quelque chose à foutre de ce genre de problème de sécurité, ils l’auraient activé depuis longtemps pour tous les programmes. Et pas la peine de parler de quelques incompatibilités : ils ne se sont pas gêné avec Vista à ce niveau-là pour augmenter la sécurité.

Autre point de sécurité qu’ils pourraient très facilement améliorer : l’interdiction d’exécution dans les dossiers de l’utilisateur (AppData et cie.), chose qui est déjà gérée par NTFS. Pourquoi ils ne le font pas ? Pourtant ça permettrait en même temps d’embêter Google avec son Chrome… (certes pas longtemps)



Avec Vista, la sécurité avait été l’un des principaux arguments commerciaux. Voilà pourquoi ils n’ont pas hésité à faire quelques changements quitte à ce qu’il y ait un peu de casse. Aujourd’hui, ce n’est clairement plus le cas. Et toi, tu crois toujours que tout le verrouillage qu’ils essaient de mettre en place avec WinRT sert à la sécurité…


Le 16/09/2014 à 14h 13







Liam a écrit :



Je pense qu’il n’y a pas de solution magique : si on veut laisser de la liberté, il faut accepter d’abandonner un peu de sécurité. Un virus informatique ne fait le plus souvent que faire une succession d’actions qui, dans un autre contexte, ne seraient pas nuisibles mais souhaitées par l’utilisateur.



Je me rappelle de ce virus/ransomware récent qui chiffrait tous les fichiers de l’utilisateur et faisait payer la clé de déchiffrement : comment tu veux empêcher ça mais continuer à autoriser TrueCrypt ? A part une vérification humaine manuelle de chaque app par une team chez Microsoft (avec les risques de censure que ça suppose, comme sur le store Apple), je vois pas trop… ils font quasiment la même chose, la seule différence est que l’un le fait de façon vicelarde (sans te demander vraiment ton avis et sans que tu choisisses toi-même la clé) alors que l’autre est sympa, mais je vois pas de processus automatisé qui permettrait de bloquer l’un tout en laissant passer l’autre.





Effectivement, on ne peut pas avoir une liberté de programmation descente dans un contexte de sécurité absolue.

Ce qu’un virus ne peut pas faire, l’application ne peut pas le faire non plus, et ça c’est un gros problème.



On voit d’ailleurs aujourd’hui que la signature numérique des pilotes n’a pratiquement rien apporté en matière de stabilité ou même de sécurité. Ça a seulement compliqué la vie des développeurs (déjà que développer un pilote est une vraie misère), et c’est finalement devenu une jolie pompe à fric pour les fournisseurs de certificats.



Microsoft essaie de forcer les développeurs à adopter son langage et son environnement de développement. Une fois que ce sera fait, ils pourront tout verrouiller. Adieu le C et ses standards, adieu le code natif, et le pire : adieu les accès bas niveau à son matériel.

Et du coup, toutes les applications de cryptographie permettant de chiffrer un disque dur passeront à la trappe. Et ça n’empêche pas certains de penser que la “sécurité” s’en trouvera améliorée. Mais au fond, la sécurité de qui ?


Le 15/09/2014 à 14h 19







Lafisk a écrit :



Et en quoi tu peux affirmer qu’il ne parle pas de W8 de facon general <img data-src=" />



bref dialogue de sourds avec un gars qui de surcroit joue au con, tres peu pour moi, ciao





Et en quoi tu peux être certain qu’il parlait de Win 8 de façon générale ?

La moindre des choses avant de lui tomber dessus comme tu l’as fait aurait été de t’assurer de ça.


Le 15/09/2014 à 14h 09







Lafisk a écrit :



Donc c’est bien ce que je dis tu supposes …





Tu as un gros problème de lecture. Il a dit “Win8”, pas “Win8.1”. C’est toi qui suppose qu’il a mis à jour vers 8.1.



Au fait, j’ai un scoop pour toi : il y a plein d’utilisateurs qui préfèrent 8 à 8.1… Et ça non plus ce n’est pas une supposition.


Le 15/09/2014 à 13h 50







Lafisk a écrit :



euh non, tu t’excites tout seul mon pauvre moi je corrige juste un gars qui a l’air tout content d’eviter un truc en appuyant sur une touche .. la ou il peut automatiser la chose … c’est toi qui fait la supposition qu’il parle de W8 et pas W8.1 car au final, W8.1 = W8 vu que c’est une update



enfin bref, je vois meme pas pourquoi tu la ramenes encore avec ce 2eme commentaires si ce n;est pour te ridiculiser tout seul





Tu n’as rien corrigé du tout puisque tu t’es trompé de version de Windows.

Je ne fais aucune supposition, je me contente de lire :

“Ca fait un an qu’on a Win8 au boulot (et un peu plus à la maison)”

Sans compter que vu la date de sortie de 8.1, “ un peu plus d’un an”, ça ferait au mieux 1 an et 6 jours.



T’es tellement accroc aux nouveautés de Microsoft que tu t’imagines que tout le monde met à jour son système vers la dernière version…


Le 15/09/2014 à 13h 37







Lafisk a écrit :



8.1 etant une update gratos, j’inclus le 8.1 dans tout sujet qui parle de 8 … si c’etait pour pinailler pour te la raconter, la tu aurais mieux fait de la fermer car ca fait un poil pitie quand meme …





Mais c’est toi qui t’excitait à cause du fait que tu ne sais pas lire correctement…

Je n’ai fait que le signaler en reprenant tes mots qui, comme tu peux le voir, ne sont pas des plus agréables.


Le 15/09/2014 à 13h 31







Lafisk a écrit :



J’espere que vous mettez pas “je sais utiliser un pc” sur votre CV alors … parce que bon une petite case a cocher et vous n’auriez meme plus besoin d’appuyer sur echap …





J’espère que tu ne mets pas “je sais utiliser un PC” sur ton CV alors… parce que bon, au cas où tu n’aurais pas remarqué, il parlait de Win 8, lequel n’a pas ta “petite case à cocher”, pas de 8.1.


Le 15/09/2014 à 19h 17







DDReaper a écrit :



Du coup possibilité d’avoir du 4k 120hz avec cette norme ?





Il suffit de sortir la calculette : si on prend la “4K” d’une définition de 3840 × 2160, avec 24 bits/pixel, ça donne :

3840 × 2160 x 24 x 120 = 23 887 872 000

Donc oui, ça passe. Reste plus qu’à trouver un écran et une carte graphique qui gèrent ça. <img data-src=" />


Le 15/09/2014 à 19h 06







jeje07 a écrit :



Le truc à savoir avec les cables c’est que globalement plus c’est cher, et plus on se fait enfler <img data-src=" />

Pour info la marge dans sur les cables est délirante, de l’ordre de 60-70%, voire plus. Et je parle de la seule marge pour un magasin!

J’avais un collègue de boulot qui avait découpé un cable haut de gamme monster cable S-Vidéo (oui c’est vieux <img data-src=" /> ), y avait que dalle…. que de la gaine minable….. <img data-src=" />





Oui ça j’ai bien compris, à 80 euros le câble, ça a fait mal au derrière… (et encore, y’avait plus cher <img data-src=" />)

Mais au moins, mes prises sont plaquées or… <img data-src=" />

<img data-src=" />


Le 15/09/2014 à 17h 15







Reparateur a écrit :



et c’est quoi ça 60Hz? je te parle de l’audio



et c’est quoi ça 60Hz? je te parle de l’audio

après j’ai pas testé plus car pour écouter du son j’ai un autre cable optique (et aussi un cable analogique)



mon cable de 10M a couté 15€

sert a rien de mettre plus





Audio en 44Hz ? Ça me parait un peu limité… <img data-src=" /> (tu devrais te relire)



Et “1080p”, ça reste en-dessous de 1920x1200. Pas de beaucoup, mais quand on tire sur les limites, ça peut faire toute la différence.

De toute façon, je n’ai pas de hdmi sur mon écran, et pour cause : c’est pas une télé. <img data-src=" />


Le 15/09/2014 à 16h 43







Reparateur a écrit :



le hdmi en cable basique a 1€ le mètre supporte sans broncher 10mètre en 1080P + 44hz (j’ai ça chez moi)

je pense que le DP supporte aussi bien



maintenant le gros point noir du DP c’est qu’il manque d’écran compatible



on attend aussi les écran free sync





1080p en 44Hz ? Évidemment, si tu te contentes de ça…

J’ai du 1920x1200 en 60Hz à faire passer. Un super-câble DVI-DL de 10m soi-disant haut de gamme qui m’a coûté… beaucoup trop cher, s’avère en fait insuffisant. J’ai dû rajouter un “booster” de signal (qui lui aussi a coûté bien cher <img data-src=" />).

Quant au hdmi, beaucoup de gens ont des problèmes à partir de 5 mètres. Au-delà, ça dépend beaucoup du matériel que tu mets à chaque bout.


Le 15/09/2014 à 15h 06

Quid de la longueur du câble ?

Non parce que si c’est limité à 50 cm, c’est pas tellement intéressant…

Moi, il me le faudrait en 10 mètres. <img data-src=" />

Le 15/09/2014 à 15h 19







bsod a écrit :



Ça sert à quoi de faire fonctionner un disque à -10 degrés ???





C’est certes insuffisant pour des machines fonctionnant dans l’industrie du surgelé (-18 voire plus bas), mais ça peut être suffisant pour des machines fonctionnant à l’extérieur en toutes saisons.


Le 14/09/2014 à 20h 49







burroz a écrit :



Et puis comme dit Price dans MW2 : “L’histoire est pleine de menteurs, et si ils survivent, et que nous mourrons, leur vérité sera écrite.”.





Comment ça “pleine de menteurs” ? On nous aurait menti au sujet du nuage de Tchernobyl qui s’est arrêté aux frontières de la France ou au sujet du World Trade Center qui se serait écroulé à cause de quelques flammes étouffées ? <img data-src=" />


Le 12/09/2014 à 09h 12

Encore au sujet des pages de commentaire :




  • je cherche un commentaire pas trop ancien, je vais donc au dernier

  • je clique sur le bouton pour aller à la page précédente de commentaire

  • j’en regarde 2-3 et m’aperçois que c’était la page d’avant

  • comme le bouton pour aller à la page précédente de commentaire n’est plus là (à moins d’aller le chercher quelque part en bas de la page, ce qui est laborieux quand on en affiche 50), la solution la plus rapide est alors d’éditer directement la barre d’adresse

  • je change donc le numéro de page de la barre d’adresse, je fais Entrée, et… rien, ça ne marche pas



    Je ne sais pas comment vous avez fait ça, mais vous avez apparemment réussi à interdire à Firefox de recharger une nouvelle page si on la change depuis la barre d’adresse.

    Je viens de tester avec IE11 : pareil.

    Tient apparemment, ça a déjà été signalé au com’ #162 (j’ai voulu mettre un lien, sans succès).



    Tout cela participe à l’impression que notre navigateur ne nous appartient plus…

Le 11/09/2014 à 22h 50

Le changement de page de commentaires est une vraie misère : si on va tout en bas, à moins d’avoir un écran assez grand, on passe les boutons de changement de page.

Ensuite, on clique dessus, et du coup, ils disparaissent, puisqu’on se retrouve en haut de page et que maintenant, en haut de page de commentaires, il n’y a plus les boutons de changement de page.

Je viens de découvrir par hasard qu’on pouvait cliquer sur “PAGE 88” pour entrer le numéro de page au clavier. Mais ça nécessite de lâcher la souris pour entrer un truc au clavier, avant de reprendre la souris pour continuer la navigation normalement.

Pire encore : on tape un commentaire, on clique sur “PAGE 88”, on reclique dans la zone d’édition du commentaire, et celui-ci est perdu parce que la page se recharge toute seule ! Ça vient de m’arriver 2 fois. Et même le bouton Précédent du navigateur ne permet pas de retrouver le commentaire tapé.

Le 11/09/2014 à 17h 59

Tiens j’ai une idée : le système de like appliqué aux news.

On pourrait avoir quelques surprises…&nbsp; <img data-src=" />

Le 11/09/2014 à 16h 08

Moi, y’en a certains que je vais être tenté de “disliker” à chacun de leurs messages… (et là normalement, je reçois une tonne de “dislike”)



Et apparemment, on peut le faire sur ses propres messages. Je vais donc m’empresser de me liker sitôt ce commentaire posté. :icon_mrgreen:



Tiens, il y a un gros bug avec le smiley…

Le 11/09/2014 à 00h 53

J’ai toujours pas compris l’intérêt des polices super-étirées en hauteur, à part donner la migraine…



En plus, sans icônes pour différencier le type de news, on est obligé de lire les titres avec encore plus d’attention.



Bon, j’avais pondu un gros pavé pour faire un parallèle avec le délire de Microsoft sur le rendu actuel de ClearType, mais à quoi bon…

Le 10/09/2014 à 13h 48







mooms a écrit :



Il me semble que c’est le cas sur ceux de 3 To ou plus non ?





Ah, petite erreur dans mon précédent message : les secteurs logiques de 4 Ko nécessitent Windows 8.


Le 10/09/2014 à 13h 31







mooms a écrit :



Il me semble que c’est le cas sur ceux de 3 To ou plus non ?





Même sur mes 4 To, les secteurs logiques sont toujours de 512 octets.

En revanche, ça fait un moment que les secteurs physiques sont de 4 Ko, et c’est pour ça que formater un disque récent avec des clusters de moins de 4 Ko entraine généralement une très forte baisse de performance.



Il est encore risqué pour un fabricant de vendre des disques avec secteurs logiques de 4 Ko vu qu’ils ne sont pas supportés par Windows XP…


Le 10/09/2014 à 13h 14







ArnoH a écrit :



Si tu changes régulièrement c’est sûr.

Je viens de mettre en retraite, bien méritée après 8 ans de service, deux Seagate de 80Gb chacun : ~ -30% de perfs en séquentiel et ~ +20% sur les temps d’accès. C’est mécanique, il y a de l’usure … .





Ca fait bientôt 2 ans que j’utilisais 2 disques WD RED de 3 To. J’ai refait un test : pas 1% de baisse. Rien. Idem pour les temps d’accès.



En revanche, je me souviens avoir acheté un Seagate de 80 Go… Il a finit avec des secteurs défectueux. Fort heureusement, je l’utilisais déjà comme disque de sauvegarde.

J’avais déjà décidé de ne plus acheter de Seagate, apparemment ça confirme que j’ai bien fait. <img data-src=" />







mooms a écrit :



ATA-6 c’est l’Ultra ATA/100, non ?



Donc OSEF, puisque tous les disques sont désormais en SATA et avec des secteurs de 4 Ko.





Les standards ATA-7 et ATA-8 en vigueur pour le SATA utilisent aussi l’adressage LBA sur 48 bits.

Et les disques présentant des secteurs logiques de 4 Ko sont encore rares. Mais pour ceux-là, on peut effectivement monter à 1 million de To.


Le 10/09/2014 à 12h 37







Jarodd a écrit :



Est-ce que tous les systèmes récents supportent 10 To ? Si c’est pour être limité à 2 comme un Windows pas si ancien…





Dans la mesure où tu utilises GPT et NTFS, la plus courte limite actuelle semble être celle du standard ATA-6 : 48 bits, avec des secteurs de 512, ça donne 131072 TiB.


Le 10/09/2014 à 12h 35







Bejarid a écrit :



Reteste après un an ou deux d’utilisation, tu verras le résultat…





Alors à toi maintenant de me dire quel disque tu utilises. Ca fait 17 ans que j’ai un PC et que je change régulièrement mes disques durs, et je n’ai jamais vu la vitesse d’un disque diminuer avec le temps.







Maxhysteria a écrit :



À cette vitesse moyenne, ça fait quand même 24h pour traverser tout le disque <img data-src=" />





Refais ton calcul : ça fait dans les 9 heures et demi. Et j’ai pu le vérifier en pratique avec un test d’écriture.


Le 10/09/2014 à 12h 08







luxian a écrit :



200 Mo/s de débit pointe, soit quoi … 60 Mo/s en moyenne pratique.





C’est quoi ton disque, que j’évite d’acheter le même ?



J’ai 2 WD RED de 4 To, 150 Mo/s en pointe annoncé, 161 constaté, une moyenne de 117 et un minimum de 66.


Le 10/09/2014 à 12h 02







JustMe a écrit :



Moi j achetes toujours par paire.





Tes citations aussi tu les fais par paire ? <img data-src=" />


Le 09/09/2014 à 21h 00







choukky a écrit :



Attention barbecue km 35 en direction de Dijon. <img data-src=" />



Chiennas





Un barbecue au poulet à 35 kg de moutarde de Dijon ?



Des messages codés employés par le peuple pour échapper au pouvoir en place… Un peu comme du temps de la Résistance en fait…


Le 09/09/2014 à 16h 01







Winderly a écrit :



presumes-terroristes

<img data-src=" />





Merci. <img data-src=" />

Ça fait longtemps que la politique ne m’intéresse plus, donc normal que je sois passé à côté.

Certes son habitude de “signer” est un peu bizarre, mais pour le reste… Si je commençais à dire ce que je pense, ce serait bien pire. <img data-src=" />


Le 09/09/2014 à 15h 35







NonMais a écrit :



C’est que tu ne lis pas souvent les commentaires



Leynas… qui aime bien laisser son interlocuteur dans l’expectative <img data-src=" />





J’en lis des centaines tous les jours, j’ai même fait quelques recherches pour tenter de savoir, mais bon, pas grave…


Le 09/09/2014 à 15h 19

Un peu HS mais quelqu’un pourrait-il m’expliquer ce que signifie les “Leynas” à la fin de certains commentaires ? J’ai pas tout suivi là… <img data-src=" />

Le 09/09/2014 à 18h 47







KissFC a écrit :



Pourquoi un micro-onde cuit-il ?

A cause de la fréquence de résonance des molécules d’eau :

En bombardant une molécule a une certaine fréquence, celle-ci se met a vibrer jusqu’à échauffer la totalité du système dont il fait partit.

Pour échauffer une molécule d’eau c’est 2450MHz pas un Hz de plus ou de moins.

Votre corps ne va pas se mettre a bouillir parce qu’on vous bombarde la gueule a 2451MHz, y’a quand même 1 million Hz (!) de différence.

La résonance c’est 2450, pas 2450000001 ou 2449000. (pas compté le nombre de 0 vous m’excuserez, 1MHz (méga hertz) c’est un million de hertz.





C’est ce que beaucoup ont cru à tort pendant longtemps. Mais il serait peut-être temps de rétablir un peu les choses.

Résonance de l’eau :

“Retenons pour ce qui nous concerne que la molécule d’eau présente trois fréquences de résonance dans la gamme des micro-ondes (et d’autres dans l’infrarouge) :

Fréquence n° 1 = 22,2 GHz

Fréquence n° 2 = 183,3 GHz

Fréquence n° 3 = 325,4 GHz”


Le 09/09/2014 à 15h 03







mrdoug a écrit :



Il serait temps qu’ils se mettent au boulot. Ils sont capables de sortir d’excellent CPUs (Cf athlon 64)





Tu parles du truc d’il y a 11 ans ? Faut pas vivre dans le passé comme ça…


Le 09/09/2014 à 14h 49







GierrePattaz a écrit :



Est que l’auto-hébergement deviendra de fait un “service spécialisé” ?



<img data-src=" />





Plus tu craches la thune, plus ça sera “spécialisé”.


Le 09/09/2014 à 13h 53







knos a écrit :



Les cartes graphique ce n’est pas déjà plein de petit core? On arrive pourtant a distribuer les taches dessus. Pourquoi ca ne pourrait ce faire avec des taches plus importante.





On n’y distribue pas des tâches, on y distribue du calcul. C’est très différent.


Le 05/09/2014 à 17h 30







Zulgrib a écrit :



Ils le font toujours ?





Ca m’étonnerait… Sur ma connexion 100 Mbps descendant, speedtest m’indique 4.89 Mbps… Et je tourne souvent entre 10 et 20 Mbps.

Pourtant j’ai bien le débit : j’ai déjà approché le maximum sur des torrents bien actifs.


Le 05/09/2014 à 17h 18



L’éditeur vient en effet d’intégrer WebRTC dans la bêta publique de Firefox, disponible en version 33.



WebRTC est présent et fonctionnel dans Firefox depuis la version 22

Le 04/09/2014 à 15h 14







YesWeekEnd a écrit :



Un “bug logiciel”… Parce qu’on parle de bug ailleurs qu’en programmation ?









John Shaft a écrit :



Yup. Le bug du Pentium notamment





Celui du Pentium est le plus connu, mais en fait, des CPU bugués, il y en a un bon paquet. Il semble par exemple que les premiers Haswell aient eu aussi quelques problèmes


Le 03/09/2014 à 11h 02

Cette news m’apprend l’existence des Atom quad core. <img data-src=" />

Le 03/09/2014 à 06h 42







TheRarePearl a écrit :



Ceux qui voient un gain de réactivité, vous utilisez votre SSD, HDD ou votre RAM comme cache ?





Uniquement le cache RAM (avec évidemment des paramètres augmentés), et aucun gain de réactivité.


Le 02/09/2014 à 17h 32







David_L a écrit :



Il ne faut pas oublier qu’on est sur du 1280px de large, si on laisse avec la même police, c’est tout vide ;)





Mais justement, le problème de la nouvelle police, ce n’est pas sa largeur… C’est le ratio hauteur/largeur qui est complètement abusé.

Les sous-titres de la v6 sont agréables à lire parce qu’ils ont un ratio hauteur/largeur normal.


Le 02/09/2014 à 12h 59

J’utilise le mode compact :




  • Les titres sont difficiles à lire.

  • Le petit trait de couleur sur la gauche est encore moins évocateur que ne l’était le petit dessin.

  • Quand je clique pour accéder au premier commentaire non lu, ça fait défiler inutilement toute la page, ce qui réduit la réactivité et fait utiliser du CPU pour rien.

  • Où sont passées les brèves ? Vous semblez ne pas en parler dans l’article.

  • Le numéro des commentaires n’est pas affiché.

Le 01/09/2014 à 14h 51

Mais où sont passés tous ceux qui disent que le PC est mort et que les tablettes c’est l’avenir ?











Pop Pop a écrit :



<img data-src=" />





J’étais en train de me demander si j’étais le seul à l’avoir vue… <img data-src=" />


Le 29/08/2014 à 19h 30







luxian a écrit :



En tout cas, ça m’embête tout ces beaux benchmarks … aucun d’entre eux me donne une idée de la différence de performance avec mon brave Core 2 Quad Q9650 ….





Tu peux trouver ici ton Q9650 avec un score de 4242.

Les processeurs de la news n’y figurent pas encore, mais il y a le 4930K dont les caractéristiques sont assez proches du 5930K et qui atteint un score de 13191.


Le 27/08/2014 à 12h 52







Reznor26 a écrit :



[HS] Désolé, mais simple question sans rapport : comment peux-tu être inscrit depuis décembre 2002, soit 5 mois avant l’ouverture du site ? [/HS]



<img data-src=" />





Le site a été créé en juillet 2000 et s’appelait INpact-Hardware.