Pour l’instant, mon TN fonctionne très bien, aucune raison de changer pour rester sur du LCD.
Quand je changerais ce sera pour avoir une vraie évolution sur la qualité d’image, donc ce sera OLED ou rien.
Avant d’avoir du PVA sous les yeux, je pensais moi aussi qu’il n’y aurait que peu de différence… Aujourd’hui, autant le TN que l’IPS me font " />
Le
16/09/2014 à
13h
08
Grumlyz a écrit :
Pour l’instant, je ne vois aucun intérêt à une plus grande définition, même le WQHD c’est trop grand. Encore 2 ou 3 ans histoire d’avoir quelques contenus et des cartes graphiques qui puissent gérer la 3D avec autant de pixels.
L’intérêt ? Un ratio qui ne soit pas celui décidé par l’industrie du cinéma (1920x1200), ou bien ne pas avoir des pixels trop visibles sur un 27 ou 30”…
En tout cas, si du 1920x1080 te suffit, tu trouveras facilement ton bonheur si tu essaies le S-PVA (attention à ce que ce ne soit pas du PVA tout court, lequel laisse des trainées visibles sur chaque mouvement d’image).
Le
12/09/2014 à
18h
56
Grumlyz a écrit :
Pour de l’OLED, je suis près à y mettre jusqu’à 500€ pour du 27”.
L’IPS, j’ai essayé et j’ai utilisé le délais de rétractation.
J’ai aussi essayé un IPS, et comme toi : utilisation du délai de rétractation.
Et après certains osent dire qu’il n’y a pas de problème avec les noirs des dalles IPS, alors que même les zones les plus sombres de l’écran sur ta seconde image sont tout sauf noires…
As-tu essayé des dalles S-PVA ? Là tu aurais des noirs pratiquement aussi sombres que le contour de l’écran…
Malheureusement, la définition maximale qu’on trouve aujourd’hui pour le PVA est du 1920x1080. A mes yeux, c’est une régression technologique majeure…
Avec l’OLED, tu auras effectivement réactivité et contraste, mais pour la justesse des couleurs, ça risque d’être temporaire…
Le fait de ne pas faire de C/C++/ASM n’est pas problématique …
Si, complètement. Pas seulement pour des raisons évidentes de performances (enfin, évidentes quand on code des applications critiques à ce sujet…), mais aussi pour le simple fait que sans code natif, ton processeur ne t’appartient plus, puisque ce n’est plus toi qui choisit les instructions exécutées.
Bien sûr, toi tu penseras malgré tout que ton processeur t’appartient, que tu n’as pas de problème de performances (évidemment, si tu n’utilises aucune appli qui en demande…). Aucun d’entre nous ne changera d’avis.
Le
16/09/2014 à
19h
03
charon.G a écrit :
…
Les sandboxes ou le code managé n’empêchent pas les 2 problèmes de sécurité que j’ai soulevés de perdurer. Et même s’il n’y avait plus que des applications WinRT en code managé, on reste toujours par exemple avec un pare-feu qui autorise par défaut toutes les requêtes sortantes. Et si on les interdit, on n’a aucune notification, toutes les règles doivent être écrites à la main. Un comble !
En quoi mes données sont protégées si elles peuvent sortir de ma machine toutes seules ? En quoi mes données sont protégées si je ne peux plus les chiffrer avec une solution open-source ?
Le système et les applications sont de plus en plus protégés, mais les données de moins en moins. Et WinRT sert exactement à ça : donner un sentiment de sécurité pendant Microsoft s’approprie ni plus ni moins que nos données et notre matériel.
Tu comptes aussi dire que Microsoft a tenté d’améliorer la sécurité avec le Secure Boot ?
Hé chef, on fait quoi avec les tablettes ? On touche rien ? Y’a quand même Google et Apple qui risquent de nous piquer le marché…
Ah ouais les tablettes… Bon ben c’est simple : il n’y a qu’à bricoler un petit truc pour empêcher les autres systèmes de s’installer. Et puis comme d’habitude, on demandera aux commerciaux de faire passer ça pour une “security feature”.
Je crois que j’ai déjà le nom chef : “secure boot”. Qu’est-ce que vous en dites ? Par contre, faudrait implanter un truc directement dans l’UEFI. Comment on fait ?
Facile ! On n’a qu’à dire aux constructeurs que s’ils veulent avoir un joli auto-collant Windows 8, il va falloir qu’ils rajoutent ça dans leur UEFI.
Vous avez réponse à tout chef !
Hé oui, je ne suis pas le chef pour rien… Allez, implémente-moi ça correctement si tu ne veux pas être viré !
Il est encore possible de se moquer de l’horreur que représente l’arrivée du Secure Boot. Et pourtant ce n’est rien à côté de WinRT. Avec ça, Microsoft achève son rêve d’un contrôle total de nos machines. Et pour moi ce sera bye-bye, même si ça m’emmerde de devoir jeter des années d’apprentissage.
Le
16/09/2014 à
17h
32
charon.G a écrit :
Sauf que si le mec fait des conneries avec son certificat il va s’attirer des problemes voir mon message au dessus.
Et comment pourrait-on savoir s’il fait “des conneries” ? On a pourtant déjà eu plusieurs exemples de virus énormes, tant en possibilités qu’en taille de code, n’être découverts que plusieurs années après.
Répandre un virus sans personne pour le détecter, c’est si facile… J’en ai pris conscience après avoir lutté à plusieurs reprises contre un gros paquet de faux positifs signalés par VirusTotal sur une de mes principales applications.
charon.G a écrit :
le bit NX n’arrête pas l’exploitation de tous les buffer overflow, comme l’ASLR d’ailleurs. La seule méthode efficace à l’heure actuelle c’est le code managé.
A chaque nouvelle fonctionnalité de sécurité, qu’elle soit matérielle ou logicielle, on peut lire plein de gens clamer haut et fort que ça en est fini des virus, qu’on va enfin avoir un système sûr, etc. Seulement c’est pas le cas. Les virus ont juste évolué.
charon.G a écrit :
Tu peux le faire avec applocker.
Ce qui est inutile puisque, comme je le disais, c’est déjà géré par NTFS. Clic droit sur un dossier, et quelques (dizaines de) clics plus tard, aucun fichier .exe situé dans le dossier ne pourra être exécuté.
En tout cas, si c’était fait par défaut, ça réduirait fortement le nombre de cachettes possibles pour les virus, sans limiter pour autant les accès et les possibilités des applications légitimes. Pourtant, ce n’est pas fait.
charon.G a écrit :
La sandbox est surement mille fois plus efficace que le système de compte.
Une sandbox n’est ni plus ni moins efficace que le système de compte, ça ne vise tout simplement pas les mêmes choses.
charon.G a écrit :
Ce qui est marrant c’est que si Microsoft avait imposé une sandbox Win32 et cassait le comportement des applications tu aurais été un des premiers à leur gueuler dessus " />
Si ça me donne moins de libertés sur mon système, oui. Et plus encore si ça me supprime l’accès à mon matériel, matériel qui n’appartient pas à Microsoft.
Par contre, dans la mesure où ils ne me suppriment aucune possibilité, s’il me faut corriger l’une des applications que je développe pour la rendre compatible, ça ne me pose aucun problème.
Le
16/09/2014 à
16h
10
charon.G a écrit :
Tu dis un peu n’importe quoi. Ayant développé un driver et l’ayant fait passer en WHQL je pense savoir de quoi je parle par contre.
Déjà ça n’enrichit pas plus les fournisseurs de certificats. Les constructeurs ont déjà des certificats depuis des lustres. Un certificat verisign est obligatoire pour accéder au portail Windows update et donc soumettre son pilote à la certification WHQL.
Pour la certification des pilotes 64 bits le but n’a jamais été d’apporter plus de stabilité,ça change rien à ce niveau.
Pour la sécurité je ne suis pas d’accord cela a permis d’éviter un bon nombre de rootkits. Bien sur certains certificats de constructeurs ont été compromis et détourné. je pense à Realtek en particulier mais la situation aurait été bien pire si on pouvait installer n’importe quel driver vu qu’il obtient un maximum de droits. Pour Realtek ils ont révoqué le certificat et le problème était réglé. Personne n’a jamais dit que c’était une protection impénétrable. Le système de certificats est basé uniquement sur la confiance.
Pour le code natif il y a eu déjà eu ce debat sur une autre news. A la publication du billet de joe duffy une développeuse de midori était intervenue. En gros le code natif sera interdit au niveau de la programmation système uniquement. ça veut dire entre autre plus de bsod et de buffer overflow. Mais au niveau de la plateforme de développement Win32/WinRT tu pourras toujours coder en C/C++ si tu le veux. La situation ne changera pas au niveau applicatif.
Je te retourne le compliment : tu dis un peu n’importe quoi. Les certificats sont à renouveler régulièrement. Pour eux, c’est devenu une rente.
Et rien n’empêche quelqu’un qui a sorti la CB de développer un pilote signé vérolé.
Je n’ai pas développé moi-même de pilote mais j’ai régulièrement le nez dans les sources d’un pilote libre assez populaire et discute régulièrement avec son auteur.
De toute façon, je ne pensais pas tellement aux “constructeurs” pour qui tout est déjà une histoire de fric… Je pensais plutôt aux développeurs de logiciels libres qui se retrouvent coincés à cause de ça, à devoir choisir entre un certificat gratuit qui ne sera pas reconnu partout, ou un certificat payant qui, de ce fait, ne permet plus vraiment de qualifier le logiciel de “libre”.
Plus de code natif pour la programmation système ? Oui donc en fait, tu es en train de dire que le code natif pour les applications, ce sera toujours possible, mais pas pour les drivers ?
“Programmation système”, ça ne veut pas dire grand-chose. Est-ce qu’un logiciel comme Classic Shell fait de la “programmation système” ? Et un logiciel comme TrueCrypt, qui certes sert à traiter des données, mais qui a aussi besoin d’un accès direct au disque dur et d’un pilote pour la création du volume ?
Les BSOD étaient censés être limités grâce à la signature obligatoire des pilotes. Aujourd’hui, on sait que la majorité des BSOD ont pour origine un problème matériel et que c’était déjà le cas à l’époque de Windows XP.
Et ça n’empêche pas de continuer à en voir, parfois pour des raisons risibles : j’en ai eu sous Windows 8.1 il y a quelques jours. Mon premier BSOD sous ce système. La raison ? Une mauvaise configuration de mon ramdisk qui fait que les variables d’environnement TEMP/TMP pointaient vers un volume inexistant. Ça n’a pas empêché le système de tourner une bonne heure comme ça…
Quant aux buffer overflows, c’était censé être résolu avec le “bit NX”, mais Microsoft ne l’active par défaut, encore aujourd’hui, que pour ses programmes.
S’ils en avaient quelque chose à foutre de ce genre de problème de sécurité, ils l’auraient activé depuis longtemps pour tous les programmes. Et pas la peine de parler de quelques incompatibilités : ils ne se sont pas gêné avec Vista à ce niveau-là pour augmenter la sécurité.
Autre point de sécurité qu’ils pourraient très facilement améliorer : l’interdiction d’exécution dans les dossiers de l’utilisateur (AppData et cie.), chose qui est déjà gérée par NTFS. Pourquoi ils ne le font pas ? Pourtant ça permettrait en même temps d’embêter Google avec son Chrome… (certes pas longtemps)
Avec Vista, la sécurité avait été l’un des principaux arguments commerciaux. Voilà pourquoi ils n’ont pas hésité à faire quelques changements quitte à ce qu’il y ait un peu de casse. Aujourd’hui, ce n’est clairement plus le cas. Et toi, tu crois toujours que tout le verrouillage qu’ils essaient de mettre en place avec WinRT sert à la sécurité…
Le
16/09/2014 à
14h
13
Liam a écrit :
Je pense qu’il n’y a pas de solution magique : si on veut laisser de la liberté, il faut accepter d’abandonner un peu de sécurité. Un virus informatique ne fait le plus souvent que faire une succession d’actions qui, dans un autre contexte, ne seraient pas nuisibles mais souhaitées par l’utilisateur.
Je me rappelle de ce virus/ransomware récent qui chiffrait tous les fichiers de l’utilisateur et faisait payer la clé de déchiffrement : comment tu veux empêcher ça mais continuer à autoriser TrueCrypt ? A part une vérification humaine manuelle de chaque app par une team chez Microsoft (avec les risques de censure que ça suppose, comme sur le store Apple), je vois pas trop… ils font quasiment la même chose, la seule différence est que l’un le fait de façon vicelarde (sans te demander vraiment ton avis et sans que tu choisisses toi-même la clé) alors que l’autre est sympa, mais je vois pas de processus automatisé qui permettrait de bloquer l’un tout en laissant passer l’autre.
Effectivement, on ne peut pas avoir une liberté de programmation descente dans un contexte de sécurité absolue.
Ce qu’un virus ne peut pas faire, l’application ne peut pas le faire non plus, et ça c’est un gros problème.
On voit d’ailleurs aujourd’hui que la signature numérique des pilotes n’a pratiquement rien apporté en matière de stabilité ou même de sécurité. Ça a seulement compliqué la vie des développeurs (déjà que développer un pilote est une vraie misère), et c’est finalement devenu une jolie pompe à fric pour les fournisseurs de certificats.
Microsoft essaie de forcer les développeurs à adopter son langage et son environnement de développement. Une fois que ce sera fait, ils pourront tout verrouiller. Adieu le C et ses standards, adieu le code natif, et le pire : adieu les accès bas niveau à son matériel.
Et du coup, toutes les applications de cryptographie permettant de chiffrer un disque dur passeront à la trappe. Et ça n’empêche pas certains de penser que la “sécurité” s’en trouvera améliorée. Mais au fond, la sécurité de qui ?
Le
15/09/2014 à
14h
19
Lafisk a écrit :
Et en quoi tu peux affirmer qu’il ne parle pas de W8 de facon general " />
bref dialogue de sourds avec un gars qui de surcroit joue au con, tres peu pour moi, ciao
Et en quoi tu peux être certain qu’il parlait de Win 8 de façon générale ?
La moindre des choses avant de lui tomber dessus comme tu l’as fait aurait été de t’assurer de ça.
Le
15/09/2014 à
14h
09
Lafisk a écrit :
Donc c’est bien ce que je dis tu supposes …
Tu as un gros problème de lecture. Il a dit “Win8”, pas “Win8.1”. C’est toi qui suppose qu’il a mis à jour vers 8.1.
Au fait, j’ai un scoop pour toi : il y a plein d’utilisateurs qui préfèrent 8 à 8.1… Et ça non plus ce n’est pas une supposition.
Le
15/09/2014 à
13h
50
Lafisk a écrit :
euh non, tu t’excites tout seul mon pauvre moi je corrige juste un gars qui a l’air tout content d’eviter un truc en appuyant sur une touche .. la ou il peut automatiser la chose … c’est toi qui fait la supposition qu’il parle de W8 et pas W8.1 car au final, W8.1 = W8 vu que c’est une update
enfin bref, je vois meme pas pourquoi tu la ramenes encore avec ce 2eme commentaires si ce n;est pour te ridiculiser tout seul
Tu n’as rien corrigé du tout puisque tu t’es trompé de version de Windows.
Je ne fais aucune supposition, je me contente de lire :
“Ca fait un an qu’on a Win8 au boulot (et un peu plus à la maison)”
Sans compter que vu la date de sortie de 8.1, “ un peu plus d’un an”, ça ferait au mieux 1 an et 6 jours.
T’es tellement accroc aux nouveautés de Microsoft que tu t’imagines que tout le monde met à jour son système vers la dernière version…
Le
15/09/2014 à
13h
37
Lafisk a écrit :
8.1 etant une update gratos, j’inclus le 8.1 dans tout sujet qui parle de 8 … si c’etait pour pinailler pour te la raconter, la tu aurais mieux fait de la fermer car ca fait un poil pitie quand meme …
Mais c’est toi qui t’excitait à cause du fait que tu ne sais pas lire correctement…
Je n’ai fait que le signaler en reprenant tes mots qui, comme tu peux le voir, ne sont pas des plus agréables.
Le
15/09/2014 à
13h
31
Lafisk a écrit :
J’espere que vous mettez pas “je sais utiliser un pc” sur votre CV alors … parce que bon une petite case a cocher et vous n’auriez meme plus besoin d’appuyer sur echap …
J’espère que tu ne mets pas “je sais utiliser un PC” sur ton CV alors… parce que bon, au cas où tu n’aurais pas remarqué, il parlait de Win 8, lequel n’a pas ta “petite case à cocher”, pas de 8.1.
Du coup possibilité d’avoir du 4k 120hz avec cette norme ?
Il suffit de sortir la calculette : si on prend la “4K” d’une définition de 3840 × 2160, avec 24 bits/pixel, ça donne :
3840 × 2160 x 24 x 120 = 23 887 872 000
Donc oui, ça passe. Reste plus qu’à trouver un écran et une carte graphique qui gèrent ça. " />
Le
15/09/2014 à
19h
06
jeje07 a écrit :
Le truc à savoir avec les cables c’est que globalement plus c’est cher, et plus on se fait enfler " />
Pour info la marge dans sur les cables est délirante, de l’ordre de 60-70%, voire plus. Et je parle de la seule marge pour un magasin!
J’avais un collègue de boulot qui avait découpé un cable haut de gamme monster cable S-Vidéo (oui c’est vieux " /> ), y avait que dalle…. que de la gaine minable….. " />
Oui ça j’ai bien compris, à 80 euros le câble, ça a fait mal au derrière… (et encore, y’avait plus cher " />)
Mais au moins, mes prises sont plaquées or… " />
" />
Le
15/09/2014 à
17h
15
Reparateur a écrit :
et c’est quoi ça 60Hz? je te parle de l’audio
et c’est quoi ça 60Hz? je te parle de l’audio
après j’ai pas testé plus car pour écouter du son j’ai un autre cable optique (et aussi un cable analogique)
mon cable de 10M a couté 15€
sert a rien de mettre plus
Audio en 44Hz ? Ça me parait un peu limité… " /> (tu devrais te relire)
Et “1080p”, ça reste en-dessous de 1920x1200. Pas de beaucoup, mais quand on tire sur les limites, ça peut faire toute la différence.
De toute façon, je n’ai pas de hdmi sur mon écran, et pour cause : c’est pas une télé. " />
Le
15/09/2014 à
16h
43
Reparateur a écrit :
le hdmi en cable basique a 1€ le mètre supporte sans broncher 10mètre en 1080P + 44hz (j’ai ça chez moi)
je pense que le DP supporte aussi bien
maintenant le gros point noir du DP c’est qu’il manque d’écran compatible
on attend aussi les écran free sync
1080p en 44Hz ? Évidemment, si tu te contentes de ça…
J’ai du 1920x1200 en 60Hz à faire passer. Un super-câble DVI-DL de 10m soi-disant haut de gamme qui m’a coûté… beaucoup trop cher, s’avère en fait insuffisant. J’ai dû rajouter un “booster” de signal (qui lui aussi a coûté bien cher " />).
Quant au hdmi, beaucoup de gens ont des problèmes à partir de 5 mètres. Au-delà, ça dépend beaucoup du matériel que tu mets à chaque bout.
Le
15/09/2014 à
15h
06
Quid de la longueur du câble ?
Non parce que si c’est limité à 50 cm, c’est pas tellement intéressant…
Ça sert à quoi de faire fonctionner un disque à -10 degrés ???
C’est certes insuffisant pour des machines fonctionnant dans l’industrie du surgelé (-18 voire plus bas), mais ça peut être suffisant pour des machines fonctionnant à l’extérieur en toutes saisons.
Et puis comme dit Price dans MW2 : “L’histoire est pleine de menteurs, et si ils survivent, et que nous mourrons, leur vérité sera écrite.”.
Comment ça “pleine de menteurs” ? On nous aurait menti au sujet du nuage de Tchernobyl qui s’est arrêté aux frontières de la France ou au sujet du World Trade Center qui se serait écroulé à cause de quelques flammes étouffées ? " />
je cherche un commentaire pas trop ancien, je vais donc au dernier
je clique sur le bouton pour aller à la page précédente de commentaire
j’en regarde 2-3 et m’aperçois que c’était la page d’avant
comme le bouton pour aller à la page précédente de commentaire n’est plus là (à moins d’aller le chercher quelque part en bas de la page, ce qui est laborieux quand on en affiche 50), la solution la plus rapide est alors d’éditer directement la barre d’adresse
je change donc le numéro de page de la barre d’adresse, je fais Entrée, et… rien, ça ne marche pas
Je ne sais pas comment vous avez fait ça, mais vous avez apparemment réussi à interdire à Firefox de recharger une nouvelle page si on la change depuis la barre d’adresse.
Je viens de tester avec IE11 : pareil.
Tient apparemment, ça a déjà été signalé au com’ #162 (j’ai voulu mettre un lien, sans succès).
Tout cela participe à l’impression que notre navigateur ne nous appartient plus…
Le
11/09/2014 à
22h
50
Le changement de page de commentaires est une vraie misère : si on va tout en bas, à moins d’avoir un écran assez grand, on passe les boutons de changement de page.
Ensuite, on clique dessus, et du coup, ils disparaissent, puisqu’on se retrouve en haut de page et que maintenant, en haut de page de commentaires, il n’y a plus les boutons de changement de page.
Je viens de découvrir par hasard qu’on pouvait cliquer sur “PAGE 8⁄8” pour entrer le numéro de page au clavier. Mais ça nécessite de lâcher la souris pour entrer un truc au clavier, avant de reprendre la souris pour continuer la navigation normalement.
Pire encore : on tape un commentaire, on clique sur “PAGE 8⁄8”, on reclique dans la zone d’édition du commentaire, et celui-ci est perdu parce que la page se recharge toute seule ! Ça vient de m’arriver 2 fois. Et même le bouton Précédent du navigateur ne permet pas de retrouver le commentaire tapé.
Le
11/09/2014 à
17h
59
Tiens j’ai une idée : le système de like appliqué aux news.
On pourrait avoir quelques surprises… " />
Le
11/09/2014 à
16h
08
Moi, y’en a certains que je vais être tenté de “disliker” à chacun de leurs messages… (et là normalement, je reçois une tonne de “dislike”)
Et apparemment, on peut le faire sur ses propres messages. Je vais donc m’empresser de me liker sitôt ce commentaire posté. :icon_mrgreen:
Il me semble que c’est le cas sur ceux de 3 To ou plus non ?
Ah, petite erreur dans mon précédent message : les secteurs logiques de 4 Ko nécessitent Windows 8.
Le
10/09/2014 à
13h
31
mooms a écrit :
Il me semble que c’est le cas sur ceux de 3 To ou plus non ?
Même sur mes 4 To, les secteurs logiques sont toujours de 512 octets.
En revanche, ça fait un moment que les secteurs physiques sont de 4 Ko, et c’est pour ça que formater un disque récent avec des clusters de moins de 4 Ko entraine généralement une très forte baisse de performance.
Il est encore risqué pour un fabricant de vendre des disques avec secteurs logiques de 4 Ko vu qu’ils ne sont pas supportés par Windows XP…
Le
10/09/2014 à
13h
14
ArnoH a écrit :
Si tu changes régulièrement c’est sûr.
Je viens de mettre en retraite, bien méritée après 8 ans de service, deux Seagate de 80Gb chacun : ~ -30% de perfs en séquentiel et ~ +20% sur les temps d’accès. C’est mécanique, il y a de l’usure … .
Ca fait bientôt 2 ans que j’utilisais 2 disques WD RED de 3 To. J’ai refait un test : pas 1% de baisse. Rien. Idem pour les temps d’accès.
En revanche, je me souviens avoir acheté un Seagate de 80 Go… Il a finit avec des secteurs défectueux. Fort heureusement, je l’utilisais déjà comme disque de sauvegarde.
J’avais déjà décidé de ne plus acheter de Seagate, apparemment ça confirme que j’ai bien fait. " />
mooms a écrit :
ATA-6 c’est l’Ultra ATA/100, non ?
Donc OSEF, puisque tous les disques sont désormais en SATA et avec des secteurs de 4 Ko.
Les standards ATA-7 et ATA-8 en vigueur pour le SATA utilisent aussi l’adressage LBA sur 48 bits.
Et les disques présentant des secteurs logiques de 4 Ko sont encore rares. Mais pour ceux-là, on peut effectivement monter à 1 million de To.
Le
10/09/2014 à
12h
37
Jarodd a écrit :
Est-ce que tous les systèmes récents supportent 10 To ? Si c’est pour être limité à 2 comme un Windows pas si ancien…
Dans la mesure où tu utilises GPT et NTFS, la plus courte limite actuelle semble être celle du standard ATA-6 : 48 bits, avec des secteurs de 512, ça donne 131072 TiB.
Le
10/09/2014 à
12h
35
Bejarid a écrit :
Reteste après un an ou deux d’utilisation, tu verras le résultat…
Alors à toi maintenant de me dire quel disque tu utilises. Ca fait 17 ans que j’ai un PC et que je change régulièrement mes disques durs, et je n’ai jamais vu la vitesse d’un disque diminuer avec le temps.
Maxhysteria a écrit :
À cette vitesse moyenne, ça fait quand même 24h pour traverser tout le disque " />
Refais ton calcul : ça fait dans les 9 heures et demi. Et j’ai pu le vérifier en pratique avec un test d’écriture.
Le
10/09/2014 à
12h
08
luxian a écrit :
200 Mo/s de débit pointe, soit quoi … 60 Mo/s en moyenne pratique.
C’est quoi ton disque, que j’évite d’acheter le même ?
J’ai 2 WD RED de 4 To, 150 Mo/s en pointe annoncé, 161 constaté, une moyenne de 117 et un minimum de 66.
“Retenons pour ce qui nous concerne que la molécule d’eau présente trois fréquences de résonance dans la gamme des micro-ondes (et d’autres dans l’infrarouge) :
Les cartes graphique ce n’est pas déjà plein de petit core? On arrive pourtant a distribuer les taches dessus. Pourquoi ca ne pourrait ce faire avec des taches plus importante.
On n’y distribue pas des tâches, on y distribue du calcul. C’est très différent.
Un “bug logiciel”… Parce qu’on parle de bug ailleurs qu’en programmation ?
John Shaft a écrit :
Yup. Le bug du Pentium notamment
Celui du Pentium est le plus connu, mais en fait, des CPU bugués, il y en a un bon paquet. Il semble par exemple que les premiers Haswell aient eu aussi quelques problèmes…
Il ne faut pas oublier qu’on est sur du 1280px de large, si on laisse avec la même police, c’est tout vide ;)
Mais justement, le problème de la nouvelle police, ce n’est pas sa largeur… C’est le ratio hauteur/largeur qui est complètement abusé.
Les sous-titres de la v6 sont agréables à lire parce qu’ils ont un ratio hauteur/largeur normal.
Le
02/09/2014 à
12h
59
J’utilise le mode compact :
Les titres sont difficiles à lire.
Le petit trait de couleur sur la gauche est encore moins évocateur que ne l’était le petit dessin.
Quand je clique pour accéder au premier commentaire non lu, ça fait défiler inutilement toute la page, ce qui réduit la réactivité et fait utiliser du CPU pour rien.
Où sont passées les brèves ? Vous semblez ne pas en parler dans l’article.
En tout cas, ça m’embête tout ces beaux benchmarks … aucun d’entre eux me donne une idée de la différence de performance avec mon brave Core 2 Quad Q9650 ….
Tu peux trouver ici ton Q9650 avec un score de 4242.
Les processeurs de la news n’y figurent pas encore, mais il y a le 4930K dont les caractéristiques sont assez proches du 5930K et qui atteint un score de 13191.
1471 commentaires
Acer H257HU et S277HK : deux écrans « sans bordure » avec un port HDMI 2.0
12/09/2014
Le 17/09/2014 à 10h 10
Le 16/09/2014 à 13h 08
Le 12/09/2014 à 18h 56
Windows 9 : le centre de notifications récupère déjà les messages existants
15/09/2014
Le 16/09/2014 à 19h 29
Le 16/09/2014 à 19h 03
Le 16/09/2014 à 17h 32
Le 16/09/2014 à 16h 10
Le 16/09/2014 à 14h 13
Le 15/09/2014 à 14h 19
Le 15/09/2014 à 14h 09
Le 15/09/2014 à 13h 50
Le 15/09/2014 à 13h 37
Le 15/09/2014 à 13h 31
Le DisplayPort 1.3 est finalisé et passe à 32,4 Gb/s
15/09/2014
Le 15/09/2014 à 19h 17
Le 15/09/2014 à 19h 06
Le 15/09/2014 à 17h 15
Le 15/09/2014 à 16h 43
Le 15/09/2014 à 15h 06
Quid de la longueur du câble ?
Non parce que si c’est limité à 50 cm, c’est pas tellement intéressant…
Moi, il me le faudrait en 10 mètres. " />
Western Digital Ae : des HDD de 6,x To capables de fonctionner de - 10 à 55 °C
15/09/2014
Le 15/09/2014 à 15h 19
498ème édition des LIDD : Liens Idiots Du Dimanche
13/09/2014
Le 14/09/2014 à 20h 49
Next INpact v6 : le système de commentaires est ouvert, donnez votre avis
11/09/2014
Le 12/09/2014 à 09h 12
Encore au sujet des pages de commentaire :
Je ne sais pas comment vous avez fait ça, mais vous avez apparemment réussi à interdire à Firefox de recharger une nouvelle page si on la change depuis la barre d’adresse.
Je viens de tester avec IE11 : pareil.
Tient apparemment, ça a déjà été signalé au com’ #162 (j’ai voulu mettre un lien, sans succès).
Tout cela participe à l’impression que notre navigateur ne nous appartient plus…
Le 11/09/2014 à 22h 50
Le changement de page de commentaires est une vraie misère : si on va tout en bas, à moins d’avoir un écran assez grand, on passe les boutons de changement de page.
Ensuite, on clique dessus, et du coup, ils disparaissent, puisqu’on se retrouve en haut de page et que maintenant, en haut de page de commentaires, il n’y a plus les boutons de changement de page.
Je viens de découvrir par hasard qu’on pouvait cliquer sur “PAGE 8⁄8” pour entrer le numéro de page au clavier. Mais ça nécessite de lâcher la souris pour entrer un truc au clavier, avant de reprendre la souris pour continuer la navigation normalement.
Pire encore : on tape un commentaire, on clique sur “PAGE 8⁄8”, on reclique dans la zone d’édition du commentaire, et celui-ci est perdu parce que la page se recharge toute seule ! Ça vient de m’arriver 2 fois. Et même le bouton Précédent du navigateur ne permet pas de retrouver le commentaire tapé.
Le 11/09/2014 à 17h 59
Tiens j’ai une idée : le système de like appliqué aux news.
On pourrait avoir quelques surprises… " />
Le 11/09/2014 à 16h 08
Moi, y’en a certains que je vais être tenté de “disliker” à chacun de leurs messages… (et là normalement, je reçois une tonne de “dislike”)
Et apparemment, on peut le faire sur ses propres messages. Je vais donc m’empresser de me liker sitôt ce commentaire posté. :icon_mrgreen:
Tiens, il y a un gros bug avec le smiley…
La v6 se met à jour, de nouvelles fonctionnalités au programme
08/09/2014
Le 11/09/2014 à 00h 53
J’ai toujours pas compris l’intérêt des polices super-étirées en hauteur, à part donner la migraine…
En plus, sans icônes pour différencier le type de news, on est obligé de lire les titres avec encore plus d’attention.
Bon, j’avais pondu un gros pavé pour faire un parallèle avec le délire de Microsoft sur le rendu actuel de ClearType, mais à quoi bon…
HGST répond à Seagate avec un disque dur de 3,5 pouces de… 10 To
10/09/2014
Le 10/09/2014 à 13h 48
Le 10/09/2014 à 13h 31
Le 10/09/2014 à 13h 14
Le 10/09/2014 à 12h 37
Le 10/09/2014 à 12h 35
Le 10/09/2014 à 12h 08
Le 10/09/2014 à 12h 02
15 personnes jugées pour avoir signalé des radars sur une page Facebook
09/09/2014
Le 09/09/2014 à 21h 00
Le 09/09/2014 à 16h 01
Le 09/09/2014 à 15h 35
Le 09/09/2014 à 15h 19
Un peu HS mais quelqu’un pourrait-il m’expliquer ce que signifie les “Leynas” à la fin de certains commentaires ? J’ai pas tout suivi là… " />
WiGig 60 GHz : DisplayLink l’utilise pour afficher deux flux 4K sans fil
09/09/2014
Le 09/09/2014 à 18h 47
AMD : encore 18 mois avant l’arrivée d’une nouvelle architecture marquante
09/09/2014
Le 09/09/2014 à 15h 03
Neutralité du Net : le Conseil d’État en faveur des services spécialisés
09/09/2014
Le 09/09/2014 à 14h 49
Xeon E5-2600/1600 : Intel dévoile ses CPU à 18 cœurs pour les serveurs
09/09/2014
Le 09/09/2014 à 13h 53
Futuremark adapte ses benchmarks au X99 et dénonce la triche de Huawei
05/09/2014
Le 05/09/2014 à 17h 30
Mozilla veut vous faire tester les communications WebRTC dans Firefox
05/09/2014
Le 05/09/2014 à 17h 18
L’éditeur vient en effet d’intégrer WebRTC dans la bêta publique de Firefox, disponible en version 33.
WebRTC est présent et fonctionnel dans Firefox depuis la version 22…
Des pistes d’explication pour le positionnement raté des satellites Galileo
04/09/2014
Le 04/09/2014 à 15h 14
IFA : ASUS dévoile sa ZenWatch et son Eeebook X205 à moins de 200 euros
03/09/2014
Le 03/09/2014 à 11h 02
Cette news m’apprend l’existence des Atom quad core. " />
Firefox 32 améliore ses performances avec un nouveau système de cache
02/09/2014
Le 03/09/2014 à 06h 42
Next INpact v6 : testez la beta et donnez nous votre avis
02/09/2014
Le 02/09/2014 à 17h 32
Le 02/09/2014 à 12h 59
J’utilise le mode compact :
La croissance des ventes de tablettes tactiles en Occident au point mort
01/09/2014
Le 01/09/2014 à 14h 51
Mais où sont passés tous ceux qui disent que le PC est mort et que les tablettes c’est l’avenir ?
Haswell-E : les Core i7-5820K, 5930K et 5960X officialisés et testés
29/08/2014
Le 29/08/2014 à 19h 30
HP rappelle des millions de cordons d’alimentation présentant un risque
27/08/2014
Le 27/08/2014 à 12h 52