votre avatar

chaps

est avec nous depuis le 9 janvier 2006 ❤️

1247 commentaires

Le 18/08/2014 à 07h 25

Maj installée la semaine dernière, aucun soucis chez moi. Je ne dois pas avoir un matériel concerné par le problème <img data-src=" />

Le 14/08/2014 à 14h 50







js2082 a écrit :



Vu la facilité avec laquelle tu peux obtenir une arme en France, je crois qu’on est bien mal placé pour critiquer les américains.

<img data-src=" />







Sauf qu’en France on a au moins le bon goût de rendre ça illégal, même entre deux français. Du coup un site du genre Armlist ne peut pas voir le jour (ou en tous cas pas légalement, et donc de manière apriori nettement moins visible).


Le 14/08/2014 à 13h 47

Murica rules the world !



Or in fact they think they do <img data-src=" />

Le 12/08/2014 à 19h 18







Cacao a écrit :



Ouais.

Ben du coup, jme tate à mort. 1440p+120Hz ou 4K+60Hz.



Je vois un avantage à la 4K pour :




  • matter des films

  • un bureau d’une taille de ouf



    Je vois un avantage au 120Hz pour :

  • les jeux qui le demandent genre FPS



    Pour G-Sync, si je me tape 4 images par secondes, gsync ou pas, ça sera pas fluide <img data-src=" />



    Reste à voir la diff entre 1440p et 4K sur un 2728”.







    C’est sur qu’à 4fps, G-Sync ou pas ça saccadera à mort, on est d’accord <img data-src=" />. Maintenant à 30 ou 40fps c’est moins sûr… Et certains sont plus sensibles que d’autres à ce paramètres <img data-src=" />



    Pour les films, sur un écran 24” à moins de coller son nez dessus je ne suis pas convaincu que ça changera grand chose… Sur un 28” faut voir, mais faut pas trop de recul quand même si on veut voir une différence. A mon avis, la 4K sur les films c’est surtout utile pour les TV de grande taille.



    Par contre pour le bureau, là oui, je pense que c’est là que réside l’intérêt principal de la 4k <img data-src=" />. Tu peux attendre de pouvoir comparer en magasin ou chez un pote avant de faire ton choix, rien ne presse <img data-src=" />


Le 12/08/2014 à 12h 57







Cacao a écrit :



Même si on peut faire du 1080p sur cet écran, je vois pas quelle configuration (hors SLI) pourrait faire tourner un jeu en 4K@60Hz.







Ha bah ça tombe bien, G-Sync est utile JUSTEMENT dans les cas où la carte graphique fournit moins d’images que l’écran ne peut en afficher ! C’est fou <img data-src=" /> !



Si ton PC te permet de jouer à 60fps constants, ça sert à que dalle de prendre un écran G-Sync <img data-src=" /> (sauf sur un écran 120Hz si ton PC affiche entre 60 et 120fps constants, mais bon, soyons honnêtes, un jeu à 90fps de moyenne et qui ne descend jamais en dessous de 60fps, c’est relativement fluide en général…)


Le 11/08/2014 à 20h 04







[_Driltan_ a écrit :



]

Autant changer la carte graphique, ça serait moins onéreux et plus profitable je pense.







Hum… J’ai changé plus souvent de carte graphique que d’écran, et même si j’ai payé cher mon écran (~1400€) j’ai payé encore plus cher mes cartes graphiques (1000€ le SLI de 8800GTX, puis 175€ la GTX275, puis à nouveau 1000€ le SLI de GTX480). Même en rajoutant les 450€ de l’Alienware, on est encore en dessous du prix des cartes graphiques !



Et au final, même avec 1000€ de carte graphique, il ne faut pas longtemps avant que je ne puisse plus jouer en “tout à fond” à 60fps aux derniers jeux. Un écran G-Sync me permettrait de jouer dans de meilleures conditions, en achetant des cartes graphiques moins chères (et moins énergivores, j’ai mesuré 700W à la prise de mon PC <img data-src=" />)







[_Driltan_ a écrit :



]

<img data-src=" />

<img data-src=" />







Avant d’avoir une carte graphique qui te permette de soutenir les 60fps (et plus) constant dans les derniers jeux en “4K”, tu as le temps de mettre des sous de coté. Avec mes “seulement” 2560x1600 ça fait 7 ans que j’attends, et seul les systèmes bi-GPU ultra haut de gamme m’ont permis de m’en approcher (quelques temps) <img data-src=" />.


Le 11/08/2014 à 16h 47







[_Driltan_ a écrit :



]

Et bien penses-tu qu’il sera plus confortable de jouer, bloqué en 60Hz avec le correcteur G-Sync plutôt qu’en 120Hz ?







Bah sachant que mon PC a bien du mal à sortir des FPS constants au delà de 60fps, et que du coup je suis souvent en dessous (écran 60Hz ou pas, si la carte graphique ne balance pas assez d’images l’écran ne va pas les inventer), alors OUI, je dirais que mes jeux seraient certainement plus agréables à jouer sur un écran G-Sync 60Hz que sur mon 120Hz actuel <img data-src=" />



Après, oui, évidemment le mieux serait d’avoir une config capable de balancer du 120fps constant, et dans ce cas on active la V-Sync et c’est réglé. Mais G-Sync est utile justement dans les cas où le PC n’arrive pas à envoyer assez d’images à l’écran.



Si ton PC crache déjà plus de 60fps constants, ça ne sert absolument à rien de prendre un écran G-Sync à 60Hz, n’importe quel autre écran 60Hz donnera les mêmes résultats. J’espère que tu l’avais bien compris <img data-src=" />


Le 11/08/2014 à 16h 12







[_Driltan_ a écrit :



]

Tu préfères jouer sur le plus grand des deux en fait. <img data-src=" />

Mais entre un 60Hz et un 120Hz de même résolution tu sais bien que la réponse est évidente. <img data-src=" />

(Sans G-Sync hein. <img data-src=" />)







Bah si la question est de savoir si, sans G-Sync et à diagonale et définition identiques, il vaut mieux un écran 120Hz qu’un écran 60Hz, oui évidemment la réponse va de soit <img data-src=" />



Mais on s’éloigne du “les 60Hz c’est pourri, G-Sync ou pas” du départ <img data-src=" />


Le 11/08/2014 à 16h 02







Hyrakama a écrit :



même avec du 21:9 ?







Si j’ai physiquement la largeur nécessaire sur le bureau pour poser l’écran, et que la hauteur est suffisante pour mes besoins, pourquoi pas <img data-src=" />



Mais à faire des écrans vraiment allongés, à force, on s’attaque au problème qu’il faut 2 mètres (éxagération volontaire) de largeur pour avoir la hauteur souhaitée, et ce n’est pas très pratique à intégrer dans un meuble informatique. Mais entre 169 et 1610, bien qu’existante, la différence n’est généralement pas importante au point que le moniteur ne rentre plus sur le bureau <img data-src=" />


Le 11/08/2014 à 15h 49







[_Driltan_ a écrit :



]

Comparer du 3840x2160 avec du 7680x4320…t’étais sérieux ? <img data-src=" />

Pour le vendre au grand public en plus ? Tsss… <img data-src=" />







Ce que je voulais dire, c’est que l’argument “un 1610 de même largeur aurait plus de pixels en hauteur” n’est pas recevable. C’est la définition même du ratio : à largeur égale, un 1610 est évidemment plus haut qu’un 169.



Ce qui compte vraiment, c’est de savoir si la hauteur et la largeur proposées par l’écran sont suffisantes. A la rigueur, je dirais peu importe le ratio, du moment que l’écran propose une résolution satisfaisante en largeur et en hauteur <img data-src=" />







[_Driltan_ a écrit :



]

Non, je ne me posais pas la question mais la réponse me paraît évidente. <img data-src=" />

Edit : à savoir, si tu préfères jouer sur un 120Hz ou un 60Hz j’entends.







Et bien je joue essentiellement sur mon 30”, et n’utilise mon 23” que pour jouer en 3DVision (ou quand j’ai besoin d’un deuxième écran). Je ne suis pas sûr que c’est vraiment la réponse à laquelle tu t’attendais, comme quoi il faut se méfier des “évidences” <img data-src=" />


Le 11/08/2014 à 15h 23







[_Driltan_ a écrit :



]

C’est pas vraiment comparable…<img data-src=" />







Si tu le dis <img data-src=" />…







[_Driltan_ a écrit :



]

Chacun son délire après tout. <img data-src=" />







Au passage, concernant les 60Hz, j’ai aussi un Alienware OptX AW2310. Donc j’ai également testé un écran 120Hz si tu te posais la question <img data-src=" />


Le 11/08/2014 à 15h 20







Schumi a écrit :



@chaps <img data-src=" />



Un nouveau firmware pour mon Dell 1440p serait cool <img data-src=" />







Ouais, ce serait cool. Mais rêve pas trop quand même <img data-src=" />


Le 11/08/2014 à 15h 13







Schumi a écrit :



Est-ce que si on achète un écran avec Adaptative Sync on pourra mettre du Nvidia ou AMD au choix ?







Dans la mesure où c’est prévu pour être un standard, il y a des chances. Faut juste espérer que NVidia ne bloque pas le support volontairement pour prévilégier sa technologie maison, mais en terme d’image ça reviendrait quand même un peu à se tirer une balle dans le pied. Surtout s’il y a toujours aussi peu d’écrans proposant le support de G-Sync qu’aujourd’hui !



Bref, sans garantie à 100% pour le moment, je pense que la réponse sera “oui” au final


Le 11/08/2014 à 15h 03







jeje07 a écrit :



ah non non, 24 pouces ca me suffit. un bon 24 pouces en 1610 en UHD et ca ira!







En WQUXGA alors plutôt <img data-src=" />



Bref… Si j’ai bien compris il te faut impérativement un écran physiquement 1610 d’environ 24”, quelque soit sa résolution (même si plus il y a de pixels, mieux c’est). Et surtout pas un peu plus large ou un peu plus haut, même si au final il pourrait afficher exactement la même image.



Ok <img data-src=" />


Le 11/08/2014 à 14h 49







[_Driltan_ a écrit :



]

60Hz, Synchro, 60Fps max, aucun intérêt. <img data-src=" />







Soit…







[_Driltan_ a écrit :



]

As-tu déjà utilisé un écran en 1920x1200 ?







Oui







[_Driltan_ a écrit :



]

Non parce que j’en ai rien à fiche du coup des pixels et ça ne tient pas debout vu que les 16:10 de ce genre là en possèderaient plus….<img data-src=" />







Même remarque que pour Hyrakama, à ce rythme on peut dire qu’un écran FUHD en possèderait encore plus !







[_Driltan_ a écrit :



]

Si tu avais possédé un écran en 16:10 tu saurais pourquoi je me plains de voir tous ces nouveaux moniteurs en 16:9 et rien en vu en ce qui concerne le 16:10. <img data-src=" />







Pour ta gouverne, mon moniteur principal depuis 7 ans est un Dell 3007WFP HC. Un moniteur 30” en 2560x1600, un 1610 donc <img data-src=" />



Et je ne me plaindrais pas si je devais le changer contre un 32” UHD, bien au contraire <img data-src=" />


Le 11/08/2014 à 14h 25







[_Driltan_ a écrit :



]

Non et je ne compte pas acheter un 60Hz sous prétexte que l’anti-stutter d’une technologie qui n’a pas encore fait ses preuves est là pour sauver la donne. <img data-src=" />







Je ne te propose pas d’acheter, mais de tester avant de critiquer.







[_Driltan_ a écrit :



]

Le G-Sync est fait pour le 60Hz (et 60Fps) donc oui je trouve que c’est de la merde, je n’ai pas besoin de tester pour penser qu’il est plus agréable de jouer sur un 120Hz que sur un 60Hz sous prétexte qu’il y a G-Sync.

C’est mon avis.







Option 2 donc. Tu te forge une opinion d’après ton imagination, et tu t’y tiens fortement. Et tu ne vois pas ce que pourrait t’apporter un test, puisqu’on opinion est déjà bien arrêtée.



C’est un mode de pensée… Ce n’est pas le mien, désolé <img data-src=" />







[_Driltan_ a écrit :



]

Le 16:9 ne m’intéresse pas du tout ailleurs que sur ma télévision du salon. <img data-src=" />







Si tu rajoute (sans rien enlever donc) des pixels à ton moniteur sur le coté, tu peux le rendre 169 sans aucune perte. C’est un peu ce qui se passe avec les nouveaux moniteurs 169 UHD par rapport aux ancien WQXGA.



Après si c’est vraiment le ratio qui te dérange, tu peux rajouter des bandes noires sur le coté. Mais si ça ne te convient pas non plus, et bah… Tant pis, cherche un écran 1610 si t’en trouve, mais ça ne sert à rien de se plaindre !


Le 11/08/2014 à 13h 50







Hyrakama a écrit :



Mais toujours moindre qu’ un 4K 16:10.







A ce train là, on peut aussi dire qu’un 4K 16:10 c’est moindre qu’un UHD+ 16:9 !


Le 11/08/2014 à 13h 45







[_Driltan_ a écrit :



]

Pour moi, acheter du TN 60Hz en 2014 c’est comme acheter de la merde bien cher et aimer ça. <img data-src=" />

Alors oui le prétexte des 1ms…depuis le temps…ils pourraient investir dans la R&D mais c’est bien entendu moins coûteux pour ces grosses boîtes et bien plus rentable de ressortir la bonne vieille dalle TN pas cher. <img data-src=" />







On est d’accord, le TN c’est de la merde <img data-src=" />. Mais c’est ce qui permet d’afficher les meilleurs latences (hors OLED encore trop cher), et comme c’est ça que les joueurs regardent en premier…







[_Driltan_ a écrit :



]

Gain en pixels peut-être mais ce qu’on demande à un moniteur d’ordinateur c’est d’être un moniteur d’ordinateur et pas une télévision.







Justement, c’est sur un moniteur que le gain en pixels est le plus intéressant !







[_Driltan_ a écrit :



]

Le 16:10 coûte plus cher à produire il paraît, alors bon puisque “tout le monde” accepte le 16:9 autant ne faire plus que ça après tout. Ce que le consommateur demande on s’en fout vu que s’il n’a que ce qu’on lui propose à sa disposition le problème est résolu…







Non, le 1610 n’est pas beaucoup plus cher à produire “en soit”. Ce qui est plus cher, c’est de produire des dalles de tailles différentes. C’est plus rentable si toutes les dalles ont le même format. Et malheureusement c’est le 169 qui a été retenu.







[_Driltan_ a écrit :



]

Pour ce qui est de la technologie G-Sync, c’est juste un moyen de pallier au problème de rafraichissement, là encore…de la bonne merde en boîte.







Tu as testé avant d’affirmer ça ? Ou tu imagines, forge, et arrête ton opinion sur ce que tu crois sans vérifier ?







[_Driltan_ a écrit :



]

Désolé mais je ne vois même pas comment on peut défendre ce truc du coup je m’emballe. <img data-src=" />







Cet écran n’est pas parfait, surtout à cause la dalle TN. Plus l’écran est grand et plus l’angle de vue change d’un bout à l’autre de l’écran. Et comme une dalle TN a des angles de vision moisis, sur un 28” ça fera juste une image dégueulasse et inhomogène.



Concernant les 60Hz et le format 169, en revanche, c’est un peu mesquin de cracher dessus “par principe”. Le 169 j’ai déjà expliqué pourquoi, les 60Hz je pense qu’on ne peut pas dire “même avec G-Sync c’est de la merde” sans même avoir testé <img data-src=" />


Le 11/08/2014 à 13h 13







jeje07 a écrit :



si tu dézoomes trop, ca devient illisible. sur des écrans 4K 2427 pouces, si tu as un taille de police plus petite que sur un 24 pouces HD, ca devient illisible. donc la surface d’image n’augmentera pas, ou pas de beaucoup, c’est surtout que on aura ENFIN une qualité des contours comparables à celles d’un smartphone. ca me gave un peu en 2014 d’avoir des caractères en escalier sur un 24 pouces…..







Donc ce qu’il te faut, ce sont des écran plus grands. Un écran 32” UHD devrait te convenir, la hauteur est physiquement presque identique à celle d’un écran 30” WQXGA (à 0.56cm près, c’est à dire seulement 1.3% plus petite), sauf que tu as 2160px de hauteur au lieu de 1600px. Donc tu peux, en écrivant aussi gros, afficher au moins autant de chose qu’un écran 30” 1610 sur un 32” 169. Tu as juste un peu plus de surface en plus sur les cotés (c’est cadeau).







jeje07 a écrit :



pour ton idée de rajouter des bandes noires, ca sera sans moi!







Pourtant, si tu es un extremiste du 1610 et refuse absolument les 169, c’est un moyen d’avoir un 1610 meilleur que le meilleur des 1610 actuellement sur le marché, et pour moins cher…



En fait tu as juste décidé que le 169 c’est caca, que c’est pour le cinéma, et que tu n’en veux pas. Même si au final tu aurais une surface de travail plus grande (ET une hauteur identique) qu’en restant sur un 1610


Le 11/08/2014 à 12h 44







jeje07 a écrit :



ca dépend de la taille de la police… et vu que les caractères auront forcément la même taille qu’actuellement sur un écran Hd et inférieur, au final le problématique 169 - 1610 reste la même

perso du 169, j’en veux pas







Hum… Je ne suis pas d’accord, la taille de la police au pire ça se règle. Et plus de pixels, çe veut dire que tu peux dézoomer sans que ça devienne dégueulasse et illisible.



Au pire, tu rajoutes deux bandes noires de 192px de large de chaque coté de ton écran, et voilà, tu as un écran 1610 en 3456x2160. Félicitations, tu as une meilleure définition qu’avec un écran WUXGA (et même mieux qu’un WQXGA) !


Le 11/08/2014 à 12h 26







jeliel a écrit :



Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?







Image plus fine, moins d’aliasing (et donc moins besoin d’anti-aliasing) <img data-src=" />.



Mais à mes yeux, c’est quand même surtout pour la bureautique et le surf qu’une meilleure résolution est intéressante (plus de pixels = plus d’informations affichées simultanément sur l’écran).


Le 11/08/2014 à 12h 21







[_Driltan_ a écrit :



]Hmm…TN…UHD donc 16:9…60Hz….suivant ! <img data-src=" />







Hum…







jb18v a écrit :



pas mieux mais je pense qu’en 4K/UHD on aura plus du tout de 1610… mais vu le gain en pixels, je pense que ça me dérangera moins <img data-src=" />







+1



Autant je pouvais comprendre que ça fasse chier quand la norme 169 est apparue dans les moniteurs et qu’on a perdu 120px de hauteur en passant du 1920x1200 au 1920x1080, autant avec déjà 2160px de hauteur ça me semble déjà moins préjudiciable… Et je pense que pour des raisons économiques (usines de dalles partagées entre les moniteurs et les téléviseurs), on peut faire une croix sur le 1610 (sauf rares exceptions, vendues du coup à prix d’or).



Pour ce qui est de la partie “60Hz”, justement avec G-Sync ça devrait au moins en grande partie limiter le problème. Les 120Hz sont nettement moins utiles apriori avec un écran G-Sync. Et si vous en être au point qu’une image affichée 8ms plus tôt change absolument tout dans votre perception du jeu, c’est que vous passez votre vie dessus. Alors vous pouvez bien vous permettre de vous payer un écran 144Hz avec un input lag minimum pour vos sessions de jeux ,en plus d’un “vrai” moniteur pour les autres activités <img data-src=" />


Le 11/08/2014 à 08h 47







Algent a écrit :



Heureusement que Eizo ne suit pas cette logique à la con. Je regrette vraiment pas d’avoir perdu 1pouce en me prenant un FS2333.







Ouais, enfin là tu compares un 28” UHD compatible G-Sync, avec un 23” FHD “classique”. Aucun rapport entre les deux, du coup la comparaison n’est pas très pertinente (je pense) <img data-src=" />


Le 11/08/2014 à 08h 43







David_L a écrit :



Rien, si ce n’est la débilité du client qui cherche du 1 ms.







On est bien d’accord <img data-src=" />


Le 11/08/2014 à 08h 35







David_L a écrit :



Toujours : G-Sync = Joueurs = TN :/







C’est débile, justement avec G-Sync on n’a pas forcément besoin d’une dalle hyper-réactive (pas besoin de 120Hz constants). Techniquement je ne vois pas ce qui empêcherait d’utiliser G-Sync sur une dalle IPS…


Le 11/08/2014 à 08h 33

28”, UHD et compatible G-Sync ? Reste plus qu’à savoir le type de dalle (en esperant que ça ne soit pas du TN), et ça peut être pas mal !



Edit : Ha, bon, bah, TN :(

Le 12/08/2014 à 19h 11







Emralegna a écrit :



<img data-src=" />



Et bien je ne sais pas comment tu as fais. Sur toutes les cartes mère que j’ai vu y’a le slot PCIe 4x entre deux slots PCIe 16x et le ventirad de ces cartes bouffe les deux places.







Facile, j’ai ça comme carte mère <img data-src=" />. Du coup j’ai même un port libre entre les deux cartes pour les laisser respirer, malgré qu’elles soient toutes les deux triple slot <img data-src=" />



C’est ce que je disais plus haut, quand on prévois de monter un SLI, on choisit sa carte mère en fonction <img data-src=" />


Le 12/08/2014 à 07h 19







Emralegna a écrit :



Avec ce genre de ventirad c’est mort c’est watercooling obligé rien que pour l’espace, donc merci les 50+€ du prix de la carte qui part à la poubelle.







J’ai un SLI de ça depuis bientôt 4 ans, elles ne sont pas watercoolées et ça marche très bien <img data-src=" />


Le 12/08/2014 à 06h 25







x689thanatos a écrit :



Reste que deux cartes de ce genre sur une machine lambda, ça bouffe une place monstre.

De peu que l’on utilise plusieurs cartes (audio/contrôleurs de disques ou réseau), cette solution est juste inenvisageable sur bon nombre de cartes mères ou le layout est mal conçu.







Quand on envisage de monter un SLI, en général on prend une carte mère qui le permet <img data-src=" />.



Mais je suis d’accord que la plupart du temps les layouts sont mal fichus, et pour monter un SLI de cartes triple slot il n’y a pas des masses de choix <img data-src=" />. Mais là ce sont des cartes double slot, ça laisse déjà plus de marge !


Le 12/08/2014 à 05h 58







John Shaft a écrit :



Ça coûte aussi cher, consomme plus et est bien plus grandement dépendant de l’optimisation des drivers. Le marketing a encore frappé on dirait <img data-src=" />







Pour le coup, non, le SLI coute un peu moins cher (mais pas de beaucoup <img data-src=" />).



Sinon j’aime beaucoup les “plus” produit de la conclusion :







  • Stunning aesthetics

  • Great SLI performance

  • LED lighting effects

  • Backplate

  • SLI Cheaper than a GTX 780Ti but performs similar

  • 4GB frame buffer







    2 avantages purement esthétiques sur 6. Un avantage à 80% esthétique (backplate). Et l’avantage pécunier, bien que réel, est quand même léger… Quant à l’avantage des perfs en SLI, il ne vaut que face à deux cartes de même prix (ou une carte monogpu). Si on compare à une seule carte monogpu (la GTX 780 Ti par exemple), ça devient plutôt un défaut.



    Bref, il ne reste que les 4Gio comme réel avantage, mais c’est le seul qu’ils n’ont pas testé <img data-src=" />


Le 12/08/2014 à 12h 13







Leum a écrit :



Non mais en informatique on compte en base 2, pas en base 10. Si le SI a impose la base 10 c’est uniquement parce que certains y ont un intérêt économique ;)







Non, c’est uniquement pour qu’un préfixe ait la même signification indépendamment du contexte. Rien à voir avec un quelconque intérêt économique.



Après côté fabricants de disques durs je ne dis pas, ils respectent surement la norme parce que ça les arrange, mais côté SI ils n’ont aucun intérêt propres dans l’affaire <img data-src=" />. C’est un organisme de normalisation, le moins qu’ils puissent faire c’est d’établir des normes non ambigües…


Le 11/08/2014 à 19h 51







vampire7 a écrit :



On a quand même le droit de donner notre avis, même si ça ne te plait pas.







Oui, je disais juste que je ne voulais plus participer au débat. C’est donner mon avis sur le sujet qui m’épuise, les autres peuvent donner le leur <img data-src=" />







vampire7 a écrit :



Les seuls fabricants de matériel à avoir adopté cette norme sont ceux qui ont un intérêt économique à le faire. Ça aussi c’est un fait.







Ça ne change pas le fond du problème.







vampire7 a écrit :



Tu es le seul ici à tout mélanger. Tu confonds l’auteur de l’article et Crucial.

Crucial annonce 4 Go, alors c’est 4 Go. Crucial se trompe ? Alors plains-toi à Crucial, pas à nous.







Je ne confond rien du tout. Si Crucial a tort, PCI n’est pas obligé de faire la même erreur. Mais après les rédacteurs font ce qu’ils veulent, j’ai donné mon avis et s’ils ne veulent pas le suivre, et bah tant pis. Au moins je sais que le message est passé auprès de certains membres de l’équipe, c’est ce que je voulais (faire entendre ma voix). Mais imposer mon point de vue, non. La balle est dans leur camp, je ne gueulerai plus sur le sujet <img data-src=" />







vampire7 a écrit :



Et tu es le seul ici à te vanter de quelque chose (le respect d’une “norme”).







Je ne me “vante” pas, je dis juste regretter que la “norme” (consultable ici à la page 32 du document) ne soit pas respectée. Et je ne comprend pas qu’on puisse dire qu’elle est source d’ambiguïté, puisque c’est précisément l’inverse. Mais bon…



Pour info, si tu as la flemme d’ouvrir le document linké, il est indiqué :





Les préfixes SI représentent strictement des puissances de 10. Ils ne doivent pas être utilisés pour exprimer des puissances de 2 (par exemple, un kilobit représente 1000 bits et non 1024 bits).

[…]

Bien que ces préfixes n’appartiennent pas au SI, ils doivent être utilisés en informatique afin d’éviter un usage incorrect des préfixes SI.





En gros “Gio” n’est pas une unité SI, mais on peut l’utiliser si on veut éviter d’être obligé d’écrire “1,073,741,824 octets”. Et il est marqué noir sur blanc que un kilobit représente dans tous les cas 1000 bits et jamais 1024 bits <img data-src=" />


Le 11/08/2014 à 14h 29







vampire7 a écrit :



Crucial exprime une quantité en Go. Un journaliste rigoureux utilisera donc la même notation.

Si tu veux te plaindre, fais-le à Crucial.



En fait, l’apparition des préfixes binaires n’a fait qu’augmenter le nombre de mécontents…

Avant, il y avait les disquettes de “1,44 Mo” qui faisaient en réalité 1440 Ko (1440 * 1024 octets), et je n’ai jamais vu quelqu’un s’en plaindre.







J’ai dit que je ne débattrai plus sur le sujet, je ne débattrai donc plus.



Il existe une norme, elle est rigoureuse. Utiliser la même unité pour exprimer deux quantités différentes est ambigüe et incorrect. Ce n’est pas une opinion, c’est un fait.



Voilà. Après si vous ça vous plait de tout mélanger et que vous ne voyez pas l’intérêt de respecter une norme, c’est comme ça. Mais y’a pas de quoi en plus s’en vanter…


Le 11/08/2014 à 06h 00







OlivierJ a écrit :



Oui, enfin dans la mesure où la RAM est toujours en multiples de 2 (contrairement à ce qui se passe dans un disque, magnétique ou SSD), ça n’a vraiment pas d’importance, aucune ambiguïté n’est possible.







Sauf que ça n’est pas ambigüe qu’à partir du moment où tu as déjà des connaissances sur le sujet.



C’est le problème des unités contextuelles, elles n’ont pas la même valeur suivant le contexte où on les utilise. Ça revient à répondre “ça dépend” quand on demande combien d’octets représente 1Go. C’est tout sauf rigoureux, et ça ne peut certainement pas s’appeler “une norme”.



Je ne débattrai pas plus sur le sujet car je ne veux pas, une fois encore, lancer un débat sans fin. Mais la réalité scientifique c’est que 1Go = 1 000 000 000 octets, quelque soit le contexte, et ce serait bien si au moins les sites professionnels d’information faisaient l’effort de respecter les normes. Peut-être qu’ainsi, petit à petit, les gens deviendraient à leur tour un peu plus rigoureux <img data-src=" />.



Là à ce rythme on n’en sortira jamais, et dans 50 ans on continuera d’avoir des personnes qui s’étonneront que dans certains cas, 1Go != 1Go. Et ces personnes, ce seront celles qui, justement, n’auront pas les connaissances nécessaires pour lever d’elles même l’ambigüité (ne va pas surtout pas croire qu’il est évident pour tout le monde que la capacité de la RAM est exprimée en puissance de 2, contrairement à celle des HDD).


Le 08/08/2014 à 13h 58

Même remarque que pour David :



La capacité de la RAM, ça se compte en Gio, pas en Go <img data-src=" />

Si même dans les news on ne s’impose pas un minimum de rigueur, on ne s’en sortira jamais <img data-src=" />

Le 08/08/2014 à 10h 52







Ceodyn a écrit :



@NXi, à quand un bouton “masquer les messages d’un tel”? Je me sens traquer là.







Tu cliques sur son pseudo, ça va t’emmener sur la page de son profil. Là, tu cliques sur “filtrer ce membre”.



Et voilà <img data-src=" />


Le 08/08/2014 à 10h 13

Au passage, d’ailleurs, si je peux me permettre, pour la RAM ici on parle de capacités en Gio, pas en Go <img data-src=" />. Certains diront que je pinaille, mais tant qu’à faire ce serait pas mal d’être aux normes dans la news <img data-src=" />

Le 08/08/2014 à 10h 11

J’ai 24Gio de RAM sur ma machine actuelle, et ne veut pas revenir en arrière pour ma prochaine bécane. 24 * 30€ = 720€, je pense que je vais attendre un peu <img data-src=" />

Le 08/08/2014 à 09h 46







Trace Elliott a écrit :



Pour satisafaire tout le monde et améliorer la situation sur les routes, il faudrait juste que la police soit aussi pointilleuse sur les comportements dangereux que sur la vitesse. c.f. Allemagne et UK.







Là je suis d’accord <img data-src=" />


Le 08/08/2014 à 08h 10







Trace Elliott a écrit :



J’apporte mon grain de sel…







En gros : Les autres aussi font n’importe quoi, du coup je ne comprend pas pourquoi on m’engueule quand je roule à 180km/h…



Mouais… Je dirais qu’au contraire, puisqu’il y a tellement de gens qui font n’importe quoi, c’est d’autant plus dangereux de rouler trop vite. Tu peux tomber sur un con arrêté au milieu de la route, sur un connard qui va te refuser la priorité, ou un autre qui va freiner comme un dingue sans raison devant ton nez.



Si tout le monde avait une conduite exemplaire, on pourrait rouler plus vite en sécurité. Mais le fait est que la route est remplie de blaireaux, et qu’il faut en tenir compte. Et donc rester attentif, et ne pas rouler trop vite pour avoir le temps de réagir.



Ton argumentation est donc à contre-sens de ta conclusion, plus il y a de gens qui font n’importe quoi sur la route et plus il devient vital d’éviter de rouler trop vite <img data-src=" />


Le 07/08/2014 à 13h 48







ActionFighter a écrit :



Non, le porc, c’est dégueulasse. Et je suis pas musulman.







Non, c’est très bon <img data-src=" />


Le 07/08/2014 à 13h 27







007sivade a écrit :



Dois-je encore te dire mon désaccord ?

Même si bien sur, le surplus de confiance c’est foutrement dangereux.

Tu n’arrive juste pas a comprendre que rouler à 100 avec une lada c’est dangereux mais qu’avec une autre voiture ça ne l’est pas. <img data-src=" />



Mais je voudrais pas qu’on pense que je défend ce mec hein, c’est pas le cas. Je disait bien il y a peu “dans une moindre mesure.”







Tu dis, je cite :





Le trouver inconscients ne veut pas dire qu’il l’est





Et moi je dis que si, il est inconscient. Et que tu semble l’être également puisque tu semble affirmer qu’il est possible de rouler aussi vite sans danger, pour peu d’avoir un bon engin. Or, sur route ouverte, bon engin ou pas, tu ne maitrise pas ton environnement. Donc non, peu importe le véhicule, rouler aussi vite n’est absolument pas sans danger.



Rouler à 100 à l’heure dans une lada sur le lac salé, ce n’est pas dangereux. Rouler à 100 à l’heure en ville en ferrari, c’est foutrement dangereux !


Le 07/08/2014 à 12h 31







007sivade a écrit :



Le trouver inconscients ne veut pas dire qu’il l’est, c’est TON sentiment, biaisé par ta mauvaise expertise de la situation, en cause, le fait que tu ne soit jamais monté sur une moto comme celle-ci.



Pour métaphorer je dirais que c’est comme la vidéo d’un tapis volant, c’est impressionnant, a fait peur, mais c’est banal pour Walt Disney.







Non, il faut être insconscient pour penser qu’on peut rouler à 200km/h sans danger sur une route de campagne. C’est ta maitrise de la situation qui est illusoire. En fait le moindre imprévu va t’envoyer au tapis avant que tu ais compris ce qu’il s’est passé. Et si l’imprévu en question concerne d’autres êtres humains, ça fera des victimes de plus qui, elles non plus, n’auront pas le temps de comprendre ce qu’il leur arrive.



Les personnes les plus dangereuses, ce sont celles qui, comme toi, ont l’illusoire impression de maitriser leur environnement en roulant à de très grandes vitesses. Vous êtes de bonne foi quand vous dites que vous ne représentez pas un danger, car vous en êtes sincèrement convaincus. Mais celà ne vous rend pas moins dangereux pour autant, mais au contraire d’autant plus !


Le 07/08/2014 à 11h 55







007sivade a écrit :



L’ignorance fou la trouille, c’est bien connu.







Ici il s’agit plutôt d’inconscience <img data-src=" />


Le 06/08/2014 à 19h 31







007sivade a écrit :



Tu as raison, sauf que dans ce cas ce n’est a aucune moment le cas. Point barre !







C’est une blague, ou tu n’as réellement pas conscience de la dangerosité de sa conduite ???



Parfois certains commentaires me font vraiment peur <img data-src=" />…


Le 06/08/2014 à 13h 50







007sivade a écrit :



Tu fais exprès de pas comprendre, et cela rends ton commentaire encore plus idiot.

Un rond point, par exemple, est autrement plus dangereux que ce qu’il fait lui, pour les autres.

Après, lui, il fait ce qu’il veut avec sa vie.







Pour la dernière fois, non, il ne fait pas ce qu’il veut de sa vie si ça implique de mettre celle des autres en danger. Point barre.


Le 06/08/2014 à 10h 26







slave1802 a écrit :



Et vendre des simulations de conduite automobile où tu peux écraser tout ce qu’y bouge en voyant giclé le sang ?

Ou diffusé sur la télé à une heure de grande écoute des trucs genre fast and furious ou des grands prix de F1 ?







J’ai déjà répondu <img data-src=" />


Le 06/08/2014 à 10h 15







MissCamping a écrit :



Ce type se fait plaisir, il met sa vie en danger certes, mais c’est son problème et à mon avis il a une certaine maîtrise de son R6 et il connait le circuit la route (pardon <img data-src=" />)







Le problème c’est qu’il met également la vie des autres en danger. Et c’est irréfutable.



Voilà, c’est tout, cordialement.


Le 06/08/2014 à 08h 19







Gab& a écrit :



À ta place j’interdirai plus simplement les délits <img data-src=" />







Hum… C’est déjà interdit <img data-src=" />







eliumnick a écrit :



Mais………… qu’est ce qui ne met pas ta vie en jeu dans la vie ?….. Au pire si vraiment tu ne veux prendre aucun risque dans la vie suicide toi, c’est le seul moyen de ne JAMAIS risquer sa vie.







Je n’ai même pas envie de répondre à ça…







eliumnick a écrit :



La différence ? La justice considère que montrer des événements réels encourage à faire de même. C’est d’ailleurs pour ça que les JT montrent souvent des scènes de guerre, dans l’espoir que les populations se révoltent….. /fin du HS.



Soit un peu logique, un abruti, qu’il voit une course encadré, un jeu vidéo, ou un type qui se filme, ne fera aucune différence. Et le type qui n’est pas abruti, que ça soit réel ou pas il s’en fout.







Idem… Si tu ne vois pas la différence, ça ne sert à rien de discuter. Tu ne changeras pas d’avis et moi non plus, fin du débat.