Vu la facilité avec laquelle tu peux obtenir une arme en France, je crois qu’on est bien mal placé pour critiquer les américains.
" />
Sauf qu’en France on a au moins le bon goût de rendre ça illégal, même entre deux français. Du coup un site du genre Armlist ne peut pas voir le jour (ou en tous cas pas légalement, et donc de manière apriori nettement moins visible).
Ben du coup, jme tate à mort. 1440p+120Hz ou 4K+60Hz.
Je vois un avantage à la 4K pour :
matter des films
un bureau d’une taille de ouf
Je vois un avantage au 120Hz pour :
les jeux qui le demandent genre FPS
Pour G-Sync, si je me tape 4 images par secondes, gsync ou pas, ça sera pas fluide " />
Reste à voir la diff entre 1440p et 4K sur un 27⁄28”.
C’est sur qu’à 4fps, G-Sync ou pas ça saccadera à mort, on est d’accord " />. Maintenant à 30 ou 40fps c’est moins sûr… Et certains sont plus sensibles que d’autres à ce paramètres " />
Pour les films, sur un écran 24” à moins de coller son nez dessus je ne suis pas convaincu que ça changera grand chose… Sur un 28” faut voir, mais faut pas trop de recul quand même si on veut voir une différence. A mon avis, la 4K sur les films c’est surtout utile pour les TV de grande taille.
Par contre pour le bureau, là oui, je pense que c’est là que réside l’intérêt principal de la 4k " />. Tu peux attendre de pouvoir comparer en magasin ou chez un pote avant de faire ton choix, rien ne presse " />
Le
12/08/2014 à
12h
57
Cacao a écrit :
Même si on peut faire du 1080p sur cet écran, je vois pas quelle configuration (hors SLI) pourrait faire tourner un jeu en 4K@60Hz.
Ha bah ça tombe bien, G-Sync est utile JUSTEMENT dans les cas où la carte graphique fournit moins d’images que l’écran ne peut en afficher ! C’est fou " /> !
Si ton PC te permet de jouer à 60fps constants, ça sert à que dalle de prendre un écran G-Sync " /> (sauf sur un écran 120Hz si ton PC affiche entre 60 et 120fps constants, mais bon, soyons honnêtes, un jeu à 90fps de moyenne et qui ne descend jamais en dessous de 60fps, c’est relativement fluide en général…)
Le
11/08/2014 à
20h
04
[_Driltan_ a écrit :
]
Autant changer la carte graphique, ça serait moins onéreux et plus profitable je pense.
Hum… J’ai changé plus souvent de carte graphique que d’écran, et même si j’ai payé cher mon écran (~1400€) j’ai payé encore plus cher mes cartes graphiques (1000€ le SLI de 8800GTX, puis 175€ la GTX275, puis à nouveau 1000€ le SLI de GTX480). Même en rajoutant les 450€ de l’Alienware, on est encore en dessous du prix des cartes graphiques !
Et au final, même avec 1000€ de carte graphique, il ne faut pas longtemps avant que je ne puisse plus jouer en “tout à fond” à 60fps aux derniers jeux. Un écran G-Sync me permettrait de jouer dans de meilleures conditions, en achetant des cartes graphiques moins chères (et moins énergivores, j’ai mesuré 700W à la prise de mon PC " />)
[_Driltan_ a écrit :
]
" />
" />
Avant d’avoir une carte graphique qui te permette de soutenir les 60fps (et plus) constant dans les derniers jeux en “4K”, tu as le temps de mettre des sous de coté. Avec mes “seulement” 2560x1600 ça fait 7 ans que j’attends, et seul les systèmes bi-GPU ultra haut de gamme m’ont permis de m’en approcher (quelques temps) " />.
Le
11/08/2014 à
16h
47
[_Driltan_ a écrit :
]
Et bien penses-tu qu’il sera plus confortable de jouer, bloqué en 60Hz avec le correcteur G-Sync plutôt qu’en 120Hz ?
Bah sachant que mon PC a bien du mal à sortir des FPS constants au delà de 60fps, et que du coup je suis souvent en dessous (écran 60Hz ou pas, si la carte graphique ne balance pas assez d’images l’écran ne va pas les inventer), alors OUI, je dirais que mes jeux seraient certainement plus agréables à jouer sur un écran G-Sync 60Hz que sur mon 120Hz actuel " />
Après, oui, évidemment le mieux serait d’avoir une config capable de balancer du 120fps constant, et dans ce cas on active la V-Sync et c’est réglé. Mais G-Sync est utile justement dans les cas où le PC n’arrive pas à envoyer assez d’images à l’écran.
Si ton PC crache déjà plus de 60fps constants, ça ne sert absolument à rien de prendre un écran G-Sync à 60Hz, n’importe quel autre écran 60Hz donnera les mêmes résultats. J’espère que tu l’avais bien compris " />
Le
11/08/2014 à
16h
12
[_Driltan_ a écrit :
]
Tu préfères jouer sur le plus grand des deux en fait. " />
Mais entre un 60Hz et un 120Hz de même résolution tu sais bien que la réponse est évidente. " />
(Sans G-Sync hein. " />)
Bah si la question est de savoir si, sans G-Sync et à diagonale et définition identiques, il vaut mieux un écran 120Hz qu’un écran 60Hz, oui évidemment la réponse va de soit " />
Mais on s’éloigne du “les 60Hz c’est pourri, G-Sync ou pas” du départ " />
Le
11/08/2014 à
16h
02
Hyrakama a écrit :
même avec du 21:9 ?
Si j’ai physiquement la largeur nécessaire sur le bureau pour poser l’écran, et que la hauteur est suffisante pour mes besoins, pourquoi pas " />
Mais à faire des écrans vraiment allongés, à force, on s’attaque au problème qu’il faut 2 mètres (éxagération volontaire) de largeur pour avoir la hauteur souhaitée, et ce n’est pas très pratique à intégrer dans un meuble informatique. Mais entre 16⁄9 et 16⁄10, bien qu’existante, la différence n’est généralement pas importante au point que le moniteur ne rentre plus sur le bureau " />
Le
11/08/2014 à
15h
49
[_Driltan_ a écrit :
]
Comparer du 3840x2160 avec du 7680x4320…t’étais sérieux ? " />
Pour le vendre au grand public en plus ? Tsss… " />
Ce que je voulais dire, c’est que l’argument “un 16⁄10 de même largeur aurait plus de pixels en hauteur” n’est pas recevable. C’est la définition même du ratio : à largeur égale, un 16⁄10 est évidemment plus haut qu’un 16⁄9.
Ce qui compte vraiment, c’est de savoir si la hauteur et la largeur proposées par l’écran sont suffisantes. A la rigueur, je dirais peu importe le ratio, du moment que l’écran propose une résolution satisfaisante en largeur et en hauteur " />
[_Driltan_ a écrit :
]
Non, je ne me posais pas la question mais la réponse me paraît évidente. " />
Edit : à savoir, si tu préfères jouer sur un 120Hz ou un 60Hz j’entends.
Et bien je joue essentiellement sur mon 30”, et n’utilise mon 23” que pour jouer en 3DVision (ou quand j’ai besoin d’un deuxième écran). Je ne suis pas sûr que c’est vraiment la réponse à laquelle tu t’attendais, comme quoi il faut se méfier des “évidences” " />
Le
11/08/2014 à
15h
23
[_Driltan_ a écrit :
]
C’est pas vraiment comparable…" />
Si tu le dis " />…
[_Driltan_ a écrit :
]
Chacun son délire après tout. " />
Au passage, concernant les 60Hz, j’ai aussi un Alienware OptX AW2310. Donc j’ai également testé un écran 120Hz si tu te posais la question " />
Le
11/08/2014 à
15h
20
Schumi a écrit :
@chaps " />
Un nouveau firmware pour mon Dell 1440p serait cool " />
Ouais, ce serait cool. Mais rêve pas trop quand même " />
Le
11/08/2014 à
15h
13
Schumi a écrit :
Est-ce que si on achète un écran avec Adaptative Sync on pourra mettre du Nvidia ou AMD au choix ?
Dans la mesure où c’est prévu pour être un standard, il y a des chances. Faut juste espérer que NVidia ne bloque pas le support volontairement pour prévilégier sa technologie maison, mais en terme d’image ça reviendrait quand même un peu à se tirer une balle dans le pied. Surtout s’il y a toujours aussi peu d’écrans proposant le support de G-Sync qu’aujourd’hui !
Bref, sans garantie à 100% pour le moment, je pense que la réponse sera “oui” au final
Le
11/08/2014 à
15h
03
jeje07 a écrit :
ah non non, 24 pouces ca me suffit. un bon 24 pouces en 16⁄10 en UHD et ca ira!
En WQUXGA alors plutôt " />
Bref… Si j’ai bien compris il te faut impérativement un écran physiquement 16⁄10 d’environ 24”, quelque soit sa résolution (même si plus il y a de pixels, mieux c’est). Et surtout pas un peu plus large ou un peu plus haut, même si au final il pourrait afficher exactement la même image.
Ok " />
Le
11/08/2014 à
14h
49
[_Driltan_ a écrit :
]
60Hz, Synchro, 60Fps max, aucun intérêt. " />
Soit…
[_Driltan_ a écrit :
]
As-tu déjà utilisé un écran en 1920x1200 ?
Oui
[_Driltan_ a écrit :
]
Non parce que j’en ai rien à fiche du coup des pixels et ça ne tient pas debout vu que les 16:10 de ce genre là en possèderaient plus…." />
Même remarque que pour Hyrakama, à ce rythme on peut dire qu’un écran FUHD en possèderait encore plus !
[_Driltan_ a écrit :
]
Si tu avais possédé un écran en 16:10 tu saurais pourquoi je me plains de voir tous ces nouveaux moniteurs en 16:9 et rien en vu en ce qui concerne le 16:10. " />
Pour ta gouverne, mon moniteur principal depuis 7 ans est un Dell 3007WFP HC. Un moniteur 30” en 2560x1600, un 16⁄10 donc " />
Et je ne me plaindrais pas si je devais le changer contre un 32” UHD, bien au contraire " />
Le
11/08/2014 à
14h
25
[_Driltan_ a écrit :
]
Non et je ne compte pas acheter un 60Hz sous prétexte que l’anti-stutter d’une technologie qui n’a pas encore fait ses preuves est là pour sauver la donne. " />
Je ne te propose pas d’acheter, mais de tester avant de critiquer.
[_Driltan_ a écrit :
]
Le G-Sync est fait pour le 60Hz (et 60Fps) donc oui je trouve que c’est de la merde, je n’ai pas besoin de tester pour penser qu’il est plus agréable de jouer sur un 120Hz que sur un 60Hz sous prétexte qu’il y a G-Sync.
C’est mon avis.
Option 2 donc. Tu te forge une opinion d’après ton imagination, et tu t’y tiens fortement. Et tu ne vois pas ce que pourrait t’apporter un test, puisqu’on opinion est déjà bien arrêtée.
C’est un mode de pensée… Ce n’est pas le mien, désolé " />
[_Driltan_ a écrit :
]
Le 16:9 ne m’intéresse pas du tout ailleurs que sur ma télévision du salon. " />
Si tu rajoute (sans rien enlever donc) des pixels à ton moniteur sur le coté, tu peux le rendre 16⁄9 sans aucune perte. C’est un peu ce qui se passe avec les nouveaux moniteurs 16⁄9 UHD par rapport aux ancien WQXGA.
Après si c’est vraiment le ratio qui te dérange, tu peux rajouter des bandes noires sur le coté. Mais si ça ne te convient pas non plus, et bah… Tant pis, cherche un écran 16⁄10 si t’en trouve, mais ça ne sert à rien de se plaindre !
Le
11/08/2014 à
13h
50
Hyrakama a écrit :
Mais toujours moindre qu’ un 4K 16:10.
A ce train là, on peut aussi dire qu’un 4K 16:10 c’est moindre qu’un UHD+ 16:9 !
Le
11/08/2014 à
13h
45
[_Driltan_ a écrit :
]
Pour moi, acheter du TN 60Hz en 2014 c’est comme acheter de la merde bien cher et aimer ça. " />
Alors oui le prétexte des 1ms…depuis le temps…ils pourraient investir dans la R&D mais c’est bien entendu moins coûteux pour ces grosses boîtes et bien plus rentable de ressortir la bonne vieille dalle TN pas cher. " />
On est d’accord, le TN c’est de la merde " />. Mais c’est ce qui permet d’afficher les meilleurs latences (hors OLED encore trop cher), et comme c’est ça que les joueurs regardent en premier…
[_Driltan_ a écrit :
]
Gain en pixels peut-être mais ce qu’on demande à un moniteur d’ordinateur c’est d’être un moniteur d’ordinateur et pas une télévision.
Justement, c’est sur un moniteur que le gain en pixels est le plus intéressant !
[_Driltan_ a écrit :
]
Le 16:10 coûte plus cher à produire il paraît, alors bon puisque “tout le monde” accepte le 16:9 autant ne faire plus que ça après tout. Ce que le consommateur demande on s’en fout vu que s’il n’a que ce qu’on lui propose à sa disposition le problème est résolu…
Non, le 16⁄10 n’est pas beaucoup plus cher à produire “en soit”. Ce qui est plus cher, c’est de produire des dalles de tailles différentes. C’est plus rentable si toutes les dalles ont le même format. Et malheureusement c’est le 16⁄9 qui a été retenu.
[_Driltan_ a écrit :
]
Pour ce qui est de la technologie G-Sync, c’est juste un moyen de pallier au problème de rafraichissement, là encore…de la bonne merde en boîte.
Tu as testé avant d’affirmer ça ? Ou tu imagines, forge, et arrête ton opinion sur ce que tu crois sans vérifier ?
[_Driltan_ a écrit :
]
Désolé mais je ne vois même pas comment on peut défendre ce truc du coup je m’emballe. " />
Cet écran n’est pas parfait, surtout à cause la dalle TN. Plus l’écran est grand et plus l’angle de vue change d’un bout à l’autre de l’écran. Et comme une dalle TN a des angles de vision moisis, sur un 28” ça fera juste une image dégueulasse et inhomogène.
Concernant les 60Hz et le format 16⁄9, en revanche, c’est un peu mesquin de cracher dessus “par principe”. Le 16⁄9 j’ai déjà expliqué pourquoi, les 60Hz je pense qu’on ne peut pas dire “même avec G-Sync c’est de la merde” sans même avoir testé " />
Le
11/08/2014 à
13h
13
jeje07 a écrit :
si tu dézoomes trop, ca devient illisible. sur des écrans 4K 24⁄27 pouces, si tu as un taille de police plus petite que sur un 24 pouces HD, ca devient illisible. donc la surface d’image n’augmentera pas, ou pas de beaucoup, c’est surtout que on aura ENFIN une qualité des contours comparables à celles d’un smartphone. ca me gave un peu en 2014 d’avoir des caractères en escalier sur un 24 pouces…..
Donc ce qu’il te faut, ce sont des écran plus grands. Un écran 32” UHD devrait te convenir, la hauteur est physiquement presque identique à celle d’un écran 30” WQXGA (à 0.56cm près, c’est à dire seulement 1.3% plus petite), sauf que tu as 2160px de hauteur au lieu de 1600px. Donc tu peux, en écrivant aussi gros, afficher au moins autant de chose qu’un écran 30” 16⁄10 sur un 32” 16⁄9. Tu as juste un peu plus de surface en plus sur les cotés (c’est cadeau).
jeje07 a écrit :
pour ton idée de rajouter des bandes noires, ca sera sans moi!
Pourtant, si tu es un extremiste du 16⁄10 et refuse absolument les 16⁄9, c’est un moyen d’avoir un 16⁄10 meilleur que le meilleur des 16⁄10 actuellement sur le marché, et pour moins cher…
En fait tu as juste décidé que le 16⁄9 c’est caca, que c’est pour le cinéma, et que tu n’en veux pas. Même si au final tu aurais une surface de travail plus grande (ET une hauteur identique) qu’en restant sur un 16⁄10…
Le
11/08/2014 à
12h
44
jeje07 a écrit :
ca dépend de la taille de la police… et vu que les caractères auront forcément la même taille qu’actuellement sur un écran Hd et inférieur, au final le problématique 16⁄9 - 16⁄10 reste la même
perso du 16⁄9, j’en veux pas
Hum… Je ne suis pas d’accord, la taille de la police au pire ça se règle. Et plus de pixels, çe veut dire que tu peux dézoomer sans que ça devienne dégueulasse et illisible.
Au pire, tu rajoutes deux bandes noires de 192px de large de chaque coté de ton écran, et voilà, tu as un écran 16⁄10 en 3456x2160. Félicitations, tu as une meilleure définition qu’avec un écran WUXGA (et même mieux qu’un WQXGA) !
Le
11/08/2014 à
12h
26
jeliel a écrit :
Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?
Image plus fine, moins d’aliasing (et donc moins besoin d’anti-aliasing) " />.
Mais à mes yeux, c’est quand même surtout pour la bureautique et le surf qu’une meilleure résolution est intéressante (plus de pixels = plus d’informations affichées simultanément sur l’écran).
Le
11/08/2014 à
12h
21
[_Driltan_ a écrit :
]Hmm…TN…UHD donc 16:9…60Hz….suivant ! " />
Hum…
jb18v a écrit :
pas mieux mais je pense qu’en 4K/UHD on aura plus du tout de 16⁄10… mais vu le gain en pixels, je pense que ça me dérangera moins " />
+1
Autant je pouvais comprendre que ça fasse chier quand la norme 16⁄9 est apparue dans les moniteurs et qu’on a perdu 120px de hauteur en passant du 1920x1200 au 1920x1080, autant avec déjà 2160px de hauteur ça me semble déjà moins préjudiciable… Et je pense que pour des raisons économiques (usines de dalles partagées entre les moniteurs et les téléviseurs), on peut faire une croix sur le 16⁄10 (sauf rares exceptions, vendues du coup à prix d’or).
Pour ce qui est de la partie “60Hz”, justement avec G-Sync ça devrait au moins en grande partie limiter le problème. Les 120Hz sont nettement moins utiles apriori avec un écran G-Sync. Et si vous en être au point qu’une image affichée 8ms plus tôt change absolument tout dans votre perception du jeu, c’est que vous passez votre vie dessus. Alors vous pouvez bien vous permettre de vous payer un écran 144Hz avec un input lag minimum pour vos sessions de jeux ,en plus d’un “vrai” moniteur pour les autres activités " />
Le
11/08/2014 à
08h
47
Algent a écrit :
Heureusement que Eizo ne suit pas cette logique à la con. Je regrette vraiment pas d’avoir perdu 1pouce en me prenant un FS2333.
Ouais, enfin là tu compares un 28” UHD compatible G-Sync, avec un 23” FHD “classique”. Aucun rapport entre les deux, du coup la comparaison n’est pas très pertinente (je pense) " />
Le
11/08/2014 à
08h
43
David_L a écrit :
Rien, si ce n’est la débilité du client qui cherche du 1 ms.
On est bien d’accord " />
Le
11/08/2014 à
08h
35
David_L a écrit :
Toujours : G-Sync = Joueurs = TN :/
C’est débile, justement avec G-Sync on n’a pas forcément besoin d’une dalle hyper-réactive (pas besoin de 120Hz constants). Techniquement je ne vois pas ce qui empêcherait d’utiliser G-Sync sur une dalle IPS…
Le
11/08/2014 à
08h
33
28”, UHD et compatible G-Sync ? Reste plus qu’à savoir le type de dalle (en esperant que ça ne soit pas du TN), et ça peut être pas mal !
Et bien je ne sais pas comment tu as fais. Sur toutes les cartes mère que j’ai vu y’a le slot PCIe 4x entre deux slots PCIe 16x et le ventirad de ces cartes bouffe les deux places.
Facile, j’ai ça comme carte mère " />. Du coup j’ai même un port libre entre les deux cartes pour les laisser respirer, malgré qu’elles soient toutes les deux triple slot " />
C’est ce que je disais plus haut, quand on prévois de monter un SLI, on choisit sa carte mère en fonction " />
Le
12/08/2014 à
07h
19
Emralegna a écrit :
Avec ce genre de ventirad c’est mort c’est watercooling obligé rien que pour l’espace, donc merci les 50+€ du prix de la carte qui part à la poubelle.
J’ai un SLI de ça depuis bientôt 4 ans, elles ne sont pas watercoolées et ça marche très bien " />
Le
12/08/2014 à
06h
25
x689thanatos a écrit :
Reste que deux cartes de ce genre sur une machine lambda, ça bouffe une place monstre.
De peu que l’on utilise plusieurs cartes (audio/contrôleurs de disques ou réseau), cette solution est juste inenvisageable sur bon nombre de cartes mères ou le layout est mal conçu.
Quand on envisage de monter un SLI, en général on prend une carte mère qui le permet " />.
Mais je suis d’accord que la plupart du temps les layouts sont mal fichus, et pour monter un SLI de cartes triple slot il n’y a pas des masses de choix " />. Mais là ce sont des cartes double slot, ça laisse déjà plus de marge !
Le
12/08/2014 à
05h
58
John Shaft a écrit :
Ça coûte aussi cher, consomme plus et est bien plus grandement dépendant de l’optimisation des drivers. Le marketing a encore frappé on dirait " />
Pour le coup, non, le SLI coute un peu moins cher (mais pas de beaucoup " />).
Sinon j’aime beaucoup les “plus” produit de la conclusion :
Stunning aesthetics
Great SLI performance
LED lighting effects
Backplate
SLI Cheaper than a GTX 780Ti but performs similar
4GB frame buffer
2 avantages purement esthétiques sur 6. Un avantage à 80% esthétique (backplate). Et l’avantage pécunier, bien que réel, est quand même léger… Quant à l’avantage des perfs en SLI, il ne vaut que face à deux cartes de même prix (ou une carte monogpu). Si on compare à une seule carte monogpu (la GTX 780 Ti par exemple), ça devient plutôt un défaut.
Bref, il ne reste que les 4Gio comme réel avantage, mais c’est le seul qu’ils n’ont pas testé " />
Non mais en informatique on compte en base 2, pas en base 10. Si le SI a impose la base 10 c’est uniquement parce que certains y ont un intérêt économique ;)
Non, c’est uniquement pour qu’un préfixe ait la même signification indépendamment du contexte. Rien à voir avec un quelconque intérêt économique.
Après côté fabricants de disques durs je ne dis pas, ils respectent surement la norme parce que ça les arrange, mais côté SI ils n’ont aucun intérêt propres dans l’affaire " />. C’est un organisme de normalisation, le moins qu’ils puissent faire c’est d’établir des normes non ambigües…
Le
11/08/2014 à
19h
51
vampire7 a écrit :
On a quand même le droit de donner notre avis, même si ça ne te plait pas.
Oui, je disais juste que je ne voulais plus participer au débat. C’est donner mon avis sur le sujet qui m’épuise, les autres peuvent donner le leur " />
vampire7 a écrit :
Les seuls fabricants de matériel à avoir adopté cette norme sont ceux qui ont un intérêt économique à le faire. Ça aussi c’est un fait.
Ça ne change pas le fond du problème.
vampire7 a écrit :
Tu es le seul ici à tout mélanger. Tu confonds l’auteur de l’article et Crucial.
Crucial annonce 4 Go, alors c’est 4 Go. Crucial se trompe ? Alors plains-toi à Crucial, pas à nous.
Je ne confond rien du tout. Si Crucial a tort, PCI n’est pas obligé de faire la même erreur. Mais après les rédacteurs font ce qu’ils veulent, j’ai donné mon avis et s’ils ne veulent pas le suivre, et bah tant pis. Au moins je sais que le message est passé auprès de certains membres de l’équipe, c’est ce que je voulais (faire entendre ma voix). Mais imposer mon point de vue, non. La balle est dans leur camp, je ne gueulerai plus sur le sujet " />
vampire7 a écrit :
Et tu es le seul ici à te vanter de quelque chose (le respect d’une “norme”).
Je ne me “vante” pas, je dis juste regretter que la “norme” (consultable ici à la page 32 du document) ne soit pas respectée. Et je ne comprend pas qu’on puisse dire qu’elle est source d’ambiguïté, puisque c’est précisément l’inverse. Mais bon…
Pour info, si tu as la flemme d’ouvrir le document linké, il est indiqué :
Les préfixes SI représentent strictement des puissances de 10. Ils ne doivent pas être utilisés pour exprimer des puissances de 2 (par exemple, un kilobit représente 1000 bits et non 1024 bits).
[…]
Bien que ces préfixes n’appartiennent pas au SI, ils doivent être utilisés en informatique afin d’éviter un usage incorrect des préfixes SI.
En gros “Gio” n’est pas une unité SI, mais on peut l’utiliser si on veut éviter d’être obligé d’écrire “1,073,741,824 octets”. Et il est marqué noir sur blanc que un kilobit représente dans tous les cas 1000 bits et jamais 1024 bits " />
Le
11/08/2014 à
14h
29
vampire7 a écrit :
Crucial exprime une quantité en Go. Un journaliste rigoureux utilisera donc la même notation.
Si tu veux te plaindre, fais-le à Crucial.
En fait, l’apparition des préfixes binaires n’a fait qu’augmenter le nombre de mécontents…
Avant, il y avait les disquettes de “1,44 Mo” qui faisaient en réalité 1440 Ko (1440 * 1024 octets), et je n’ai jamais vu quelqu’un s’en plaindre.
J’ai dit que je ne débattrai plus sur le sujet, je ne débattrai donc plus.
Il existe une norme, elle est rigoureuse. Utiliser la même unité pour exprimer deux quantités différentes est ambigüe et incorrect. Ce n’est pas une opinion, c’est un fait.
Voilà. Après si vous ça vous plait de tout mélanger et que vous ne voyez pas l’intérêt de respecter une norme, c’est comme ça. Mais y’a pas de quoi en plus s’en vanter…
Le
11/08/2014 à
06h
00
OlivierJ a écrit :
Oui, enfin dans la mesure où la RAM est toujours en multiples de 2 (contrairement à ce qui se passe dans un disque, magnétique ou SSD), ça n’a vraiment pas d’importance, aucune ambiguïté n’est possible.
Sauf que ça n’est pas ambigüe qu’à partir du moment où tu as déjà des connaissances sur le sujet.
C’est le problème des unités contextuelles, elles n’ont pas la même valeur suivant le contexte où on les utilise. Ça revient à répondre “ça dépend” quand on demande combien d’octets représente 1Go. C’est tout sauf rigoureux, et ça ne peut certainement pas s’appeler “une norme”.
Je ne débattrai pas plus sur le sujet car je ne veux pas, une fois encore, lancer un débat sans fin. Mais la réalité scientifique c’est que 1Go = 1 000 000 000 octets, quelque soit le contexte, et ce serait bien si au moins les sites professionnels d’information faisaient l’effort de respecter les normes. Peut-être qu’ainsi, petit à petit, les gens deviendraient à leur tour un peu plus rigoureux " />.
Là à ce rythme on n’en sortira jamais, et dans 50 ans on continuera d’avoir des personnes qui s’étonneront que dans certains cas, 1Go != 1Go. Et ces personnes, ce seront celles qui, justement, n’auront pas les connaissances nécessaires pour lever d’elles même l’ambigüité (ne va pas surtout pas croire qu’il est évident pour tout le monde que la capacité de la RAM est exprimée en puissance de 2, contrairement à celle des HDD).
Le
08/08/2014 à
13h
58
Même remarque que pour David :
La capacité de la RAM, ça se compte en Gio, pas en Go " />
Si même dans les news on ne s’impose pas un minimum de rigueur, on ne s’en sortira jamais " />
@NXi, à quand un bouton “masquer les messages d’un tel”? Je me sens traquer là.
Tu cliques sur son pseudo, ça va t’emmener sur la page de son profil. Là, tu cliques sur “filtrer ce membre”.
Et voilà " />
Le
08/08/2014 à
10h
13
Au passage, d’ailleurs, si je peux me permettre, pour la RAM ici on parle de capacités en Gio, pas en Go " />. Certains diront que je pinaille, mais tant qu’à faire ce serait pas mal d’être aux normes dans la news " />
Le
08/08/2014 à
10h
11
J’ai 24Gio de RAM sur ma machine actuelle, et ne veut pas revenir en arrière pour ma prochaine bécane. 24 * 30€ = 720€, je pense que je vais attendre un peu " />
Pour satisafaire tout le monde et améliorer la situation sur les routes, il faudrait juste que la police soit aussi pointilleuse sur les comportements dangereux que sur la vitesse. c.f. Allemagne et UK.
Là je suis d’accord " />
Le
08/08/2014 à
08h
10
Trace Elliott a écrit :
J’apporte mon grain de sel…
En gros : Les autres aussi font n’importe quoi, du coup je ne comprend pas pourquoi on m’engueule quand je roule à 180km/h…
Mouais… Je dirais qu’au contraire, puisqu’il y a tellement de gens qui font n’importe quoi, c’est d’autant plus dangereux de rouler trop vite. Tu peux tomber sur un con arrêté au milieu de la route, sur un connard qui va te refuser la priorité, ou un autre qui va freiner comme un dingue sans raison devant ton nez.
Si tout le monde avait une conduite exemplaire, on pourrait rouler plus vite en sécurité. Mais le fait est que la route est remplie de blaireaux, et qu’il faut en tenir compte. Et donc rester attentif, et ne pas rouler trop vite pour avoir le temps de réagir.
Ton argumentation est donc à contre-sens de ta conclusion, plus il y a de gens qui font n’importe quoi sur la route et plus il devient vital d’éviter de rouler trop vite " />
Le
07/08/2014 à
13h
48
ActionFighter a écrit :
Non, le porc, c’est dégueulasse. Et je suis pas musulman.
Non, c’est très bon " />
Le
07/08/2014 à
13h
27
007sivade a écrit :
Dois-je encore te dire mon désaccord ?
Même si bien sur, le surplus de confiance c’est foutrement dangereux.
Tu n’arrive juste pas a comprendre que rouler à 100 avec une lada c’est dangereux mais qu’avec une autre voiture ça ne l’est pas. " />
Mais je voudrais pas qu’on pense que je défend ce mec hein, c’est pas le cas. Je disait bien il y a peu “dans une moindre mesure.”
Tu dis, je cite :
Le trouver inconscients ne veut pas dire qu’il l’est
Et moi je dis que si, il est inconscient. Et que tu semble l’être également puisque tu semble affirmer qu’il est possible de rouler aussi vite sans danger, pour peu d’avoir un bon engin. Or, sur route ouverte, bon engin ou pas, tu ne maitrise pas ton environnement. Donc non, peu importe le véhicule, rouler aussi vite n’est absolument pas sans danger.
Rouler à 100 à l’heure dans une lada sur le lac salé, ce n’est pas dangereux. Rouler à 100 à l’heure en ville en ferrari, c’est foutrement dangereux !
Le
07/08/2014 à
12h
31
007sivade a écrit :
Le trouver inconscients ne veut pas dire qu’il l’est, c’est TON sentiment, biaisé par ta mauvaise expertise de la situation, en cause, le fait que tu ne soit jamais monté sur une moto comme celle-ci.
Pour métaphorer je dirais que c’est comme la vidéo d’un tapis volant, c’est impressionnant, a fait peur, mais c’est banal pour Walt Disney.
Non, il faut être insconscient pour penser qu’on peut rouler à 200km/h sans danger sur une route de campagne. C’est ta maitrise de la situation qui est illusoire. En fait le moindre imprévu va t’envoyer au tapis avant que tu ais compris ce qu’il s’est passé. Et si l’imprévu en question concerne d’autres êtres humains, ça fera des victimes de plus qui, elles non plus, n’auront pas le temps de comprendre ce qu’il leur arrive.
Les personnes les plus dangereuses, ce sont celles qui, comme toi, ont l’illusoire impression de maitriser leur environnement en roulant à de très grandes vitesses. Vous êtes de bonne foi quand vous dites que vous ne représentez pas un danger, car vous en êtes sincèrement convaincus. Mais celà ne vous rend pas moins dangereux pour autant, mais au contraire d’autant plus !
Le
07/08/2014 à
11h
55
007sivade a écrit :
L’ignorance fou la trouille, c’est bien connu.
Ici il s’agit plutôt d’inconscience " />
Le
06/08/2014 à
19h
31
007sivade a écrit :
Tu as raison, sauf que dans ce cas ce n’est a aucune moment le cas. Point barre !
C’est une blague, ou tu n’as réellement pas conscience de la dangerosité de sa conduite ???
Parfois certains commentaires me font vraiment peur " />…
Le
06/08/2014 à
13h
50
007sivade a écrit :
Tu fais exprès de pas comprendre, et cela rends ton commentaire encore plus idiot.
Un rond point, par exemple, est autrement plus dangereux que ce qu’il fait lui, pour les autres.
Après, lui, il fait ce qu’il veut avec sa vie.
Pour la dernière fois, non, il ne fait pas ce qu’il veut de sa vie si ça implique de mettre celle des autres en danger. Point barre.
Le
06/08/2014 à
10h
26
slave1802 a écrit :
Et vendre des simulations de conduite automobile où tu peux écraser tout ce qu’y bouge en voyant giclé le sang ?
Ou diffusé sur la télé à une heure de grande écoute des trucs genre fast and furious ou des grands prix de F1 ?
J’ai déjà répondu " />
Le
06/08/2014 à
10h
15
MissCamping a écrit :
Ce type se fait plaisir, il met sa vie en danger certes, mais c’est son problème et à mon avis il a une certaine maîtrise de son R6 et il connait le circuit la route (pardon " />)
Le problème c’est qu’il met également la vie des autres en danger. Et c’est irréfutable.
Voilà, c’est tout, cordialement.
Le
06/08/2014 à
08h
19
Gab& a écrit :
À ta place j’interdirai plus simplement les délits " />
Hum… C’est déjà interdit " />
eliumnick a écrit :
Mais………… qu’est ce qui ne met pas ta vie en jeu dans la vie ?….. Au pire si vraiment tu ne veux prendre aucun risque dans la vie suicide toi, c’est le seul moyen de ne JAMAIS risquer sa vie.
Je n’ai même pas envie de répondre à ça…
eliumnick a écrit :
La différence ? La justice considère que montrer des événements réels encourage à faire de même. C’est d’ailleurs pour ça que les JT montrent souvent des scènes de guerre, dans l’espoir que les populations se révoltent….. /fin du HS.
Soit un peu logique, un abruti, qu’il voit une course encadré, un jeu vidéo, ou un type qui se filme, ne fera aucune différence. Et le type qui n’est pas abruti, que ça soit réel ou pas il s’en fout.
Idem… Si tu ne vois pas la différence, ça ne sert à rien de discuter. Tu ne changeras pas d’avis et moi non plus, fin du débat.
1247 commentaires
[MàJ] Windows 8.1 : la mise à jour problématique d’août est de retour
28/08/2014
Le 18/08/2014 à 07h 25
Maj installée la semaine dernière, aucun soucis chez moi. Je ne dois pas avoir un matériel concerné par le problème " />
Un site de vente d’armes blanchi dans une histoire de meurtre
14/08/2014
Le 14/08/2014 à 14h 50
Le 14/08/2014 à 13h 47
Murica rules the world !
Or in fact they think they do " />
« Amazon, c’est Dark Vador » : l’appel au boycott d’un libraire français
13/08/2014
Le 13/08/2014 à 10h 30
http://www.bouletcorp.com/blog/archive/20100324.jpg
XB280HK : Acer annonce son écran G-Sync 4K de 28″ à 699 euros
11/08/2014
Le 12/08/2014 à 19h 18
Le 12/08/2014 à 12h 57
Le 11/08/2014 à 20h 04
Le 11/08/2014 à 16h 47
Le 11/08/2014 à 16h 12
Le 11/08/2014 à 16h 02
Le 11/08/2014 à 15h 49
Le 11/08/2014 à 15h 23
Le 11/08/2014 à 15h 20
Le 11/08/2014 à 15h 13
Le 11/08/2014 à 15h 03
Le 11/08/2014 à 14h 49
Le 11/08/2014 à 14h 25
Le 11/08/2014 à 13h 50
Le 11/08/2014 à 13h 45
Le 11/08/2014 à 13h 13
Le 11/08/2014 à 12h 44
Le 11/08/2014 à 12h 26
Le 11/08/2014 à 12h 21
Le 11/08/2014 à 08h 47
Le 11/08/2014 à 08h 43
Le 11/08/2014 à 08h 35
Le 11/08/2014 à 08h 33
28”, UHD et compatible G-Sync ? Reste plus qu’à savoir le type de dalle (en esperant que ça ne soit pas du TN), et ça peut être pas mal !
Edit : Ha, bon, bah, TN :(
Le récap’ des tests : l’équipement des joueurs à la loupe
11/08/2014
Le 12/08/2014 à 19h 11
Le 12/08/2014 à 07h 19
Le 12/08/2014 à 06h 25
Le 12/08/2014 à 05h 58
DDR4 : des kits de Crucial arrivent en boutique, dès 48,95 euros pour 4 Go
08/08/2014
Le 12/08/2014 à 12h 13
Le 11/08/2014 à 19h 51
Le 11/08/2014 à 14h 29
Le 11/08/2014 à 06h 00
Le 08/08/2014 à 13h 58
Même remarque que pour David :
La capacité de la RAM, ça se compte en Gio, pas en Go " />
Si même dans les news on ne s’impose pas un minimum de rigueur, on ne s’en sortira jamais " />
XPG Z1 : ADATA annonce les tarifs de sa DDR4 dédiée à l’overclocking
08/08/2014
Le 08/08/2014 à 10h 52
Le 08/08/2014 à 10h 13
Au passage, d’ailleurs, si je peux me permettre, pour la RAM ici on parle de capacités en Gio, pas en Go " />. Certains diront que je pinaille, mais tant qu’à faire ce serait pas mal d’être aux normes dans la news " />
Le 08/08/2014 à 10h 11
J’ai 24Gio de RAM sur ma machine actuelle, et ne veut pas revenir en arrière pour ma prochaine bécane. 24 * 30€ = 720€, je pense que je vais attendre un peu " />
Un chauffard belge visé par une enquête après la mise en ligne d’une vidéo
06/08/2014
Le 08/08/2014 à 09h 46
Le 08/08/2014 à 08h 10
Le 07/08/2014 à 13h 48
Le 07/08/2014 à 13h 27
Le 07/08/2014 à 12h 31
Le 07/08/2014 à 11h 55
Le 06/08/2014 à 19h 31
Le 06/08/2014 à 13h 50
Le 06/08/2014 à 10h 26
Le 06/08/2014 à 10h 15
Le 06/08/2014 à 08h 19