votre avatar

snoopy1492

est avec nous depuis le 4 février 2007 ❤️

926 commentaires

Le 25/02/2013 à 08h 59

Oui surtout que Bioware fait du jeu PC depuis longtemps, vu les technos des futures consoles, ca ne devrait pas être trop difficile pour eux.

Après pour d’autres studios uniquement axés console, oui il y aura surement à s’adapter…

Le 25/02/2013 à 08h 53

<img data-src=" /> Nokia

139€, Wouah, c’est clairement un des meilleurs téléphones pour ce prix là!

Bon par contre je commence à m’y perdre dans la gamme…

Quel est l’intérêt du 620 maintenant? Car il a juste un écran légèrement plus petit que le 520 (3.8 contre 4”) mais sinon le reste c’est pareil non? Et le 620 coute 199€…

Le 22/02/2013 à 16h 21







David_L a écrit :



La PS3 gère déjà la 3D, tout comme l’HDMI, tout comme les Radeon HD 7k… ;)





Dans une interview pour IGN, Shuhei Yoshida de Sony a clairement fait comprendre que la 3D, c’était fini (ca le supportera peut-être en mode legacy <img data-src=" />):

“3D was a big thing a couple of years ago, and we liked what we could do on PS3 using 3D stereoscopic. But now the consumer electronics side of Sony, or all of the companies have shifted focus from 3D TV to something else, so if they’re not talking about it, why would we?

Trad rapide : La 3D était le gros truc il y a deux ans, et nous aimions ce que l’on pouvais faire sur la PS3 avec la 3D stereoscopic. Mais maintenant la partie électronique grand public de Sony, et toutes les entreprises, sont passées de la TV 3D à quelque chose d’autre. Donc s’il n’en parlent pas [de la 3d], pourquoi le ferions-nous?


Le 22/02/2013 à 15h 09







TheSlider a écrit :



Eidos, c’est l’éditeur c’est bien ça ?





Oui c’est Crystal Dynamics le dev ;)


Le 22/02/2013 à 08h 52







youtpout978 a écrit :



Le premier quad core ne devrait pas être un arm A15 ?









labdam a écrit :



C’est le cas (ou alors je ne comprends pas ta question)









Maxobelix a écrit :



Le screenshot n°2 (Key Features) est assez étrange…

Il parle d’un soc avec 2 quad core A7a ?!







Il parle du tableau avec les deux sous arm v7A

Ne pas confondre l’architecture ARM (ici ARM v7a), et le cœur ARM ici Cortex A7 pour l’un et Cortex A15 pour l’autre tous deux basés sur la même architecture ;)


Le 21/02/2013 à 21h 49







zogG a écrit :



Ça tombe bien ChromeOS est pensé pour le web.





Je parlais pour ceux qui étaient là en train de rêver à mettre un Linux ou autre OS dessus ;)


Le 21/02/2013 à 21h 39

Et chelou le format 3:2 de l’écran…

C’est mieux pour le Web je pense mais pour le reste…

Le 21/02/2013 à 21h 37

Et en plus les prises en mains ont l’air de montrer un tactile pas très efficace…

Non vraiment la c’est un produit qui risque de suivre le chemin de la Nexus Q…

Le 21/02/2013 à 18h 31

Bon fin de notre débat, c’est officiel, la console supporte la 4K (que pour les médias bien sûr)

Source (bas de l’article) : The Verge

Le 21/02/2013 à 16h 05







manu28 a écrit :



Et il n’y a non plus rien qui dise que ce ne sera pas supporté, d’ailleurs, ni d’infos sur la version de connecteur HDMI. <img data-src=" />



Mais je pense que si la 4K décolle ils sortiront une slim avec un HDMI 2.0, c’est pas comme si Microsoft avait fait la même chose avec l’HDMI 1.



En plus tu as l’air de dire que ça pourrait être un nouveau connecteur, mon Dieu l’horreur, les gens devront racheter la platine (logique pour lire les nouveaux BRD), l’Ampli à mettre entre celle-ci et la TV, et bien sûr la TV ultra HD.



Ceci est une révolution ! <img data-src=" />





Ah non mais je pense qu’ils vont le mettre ou le préparer.

Et ouais le nouveau connecteur… <img data-src=" />

Mais bon y a ptet pas le choix…


Le 21/02/2013 à 15h 27







manu28 a écrit :



Pas pour foutre la m*rde mais il me semble que certains Blu-Rays ou lecteurs proposent le visionnage en 24Hz “for a true cinematic experience”, donc pour les films ‘qui sont filmés en 4K pour le cinéma et c’est bête de pas en profiter’, et bien tu pourras les voir comme au cinéma, en 24Hz <img data-src=" />



Et le DP… il doit y avoir plus de gens qui connecteront leur PS4 en RGB qu’en DP <img data-src=" />





Oui mais l’hdmi 1.4b ne pourra gérer la 3D donc. (perso je m’en fiche, mais y en a qui aiment <img data-src=" />)

Et pour le dp, effectivement je ne vois personnellement pas l’intérêt, hormis dans au cas où l’hdmi 2.0 ne serait pas dispo… (Il parait que ce sera un nouveau connecteur…)

Voilà c’est juste que techniquement il n’y a rien qui empêche Sony de gérer la 4K au moins jusqu’à 30Hz <img data-src=" />


Le 21/02/2013 à 15h 04







Awax a écrit :



Donc, comme je disais, le 4K n’est qu’une niche qui n’a pas besoin d’être addressée par la PS4 dès maintenant (ou alors elle couterait 5000€) et éventuellement dans 10 ans, on ne se posera même pas la question car soit le 4K aura fait un flop ou sera suffisament courant pour qu’on ne se pose pas la question.





Mais pourquoi la console actuelle devrait-elle couter 5000€ pour le supporter (on parle pour les films là, pas pour le jeu)

On sait déjà que les gpu actuels sont capable de la gérer, donc la prochaine génération devrait logiquement suivre cette voie.

Le seul “souci” c’est la connectique. L’hdmi 1.4b ne peut que gérer du 30Hz au max en 4K, il va falloir attendre l’hdmi 2.0 pour bien le gérer.

D’où la question du display port que certains ont posé…

Voilà, c’est juste que si la console a les capacités techniques de gérer la 4K, il serait dommage de ne pas les exploiter.

Sony apportera peut-être une mise à jour en cours de route comme pour la gestion de la 3D <img data-src=" />


Le 21/02/2013 à 14h 33







Superambre a écrit :



7K€ le 65 pouces ! j’achète dès qu’il sort (oui je sais.. merci les salaires Suisse <img data-src=" />)





Sala*d <img data-src=" />


Le 21/02/2013 à 13h 36







Superambre a écrit :



une télé 4K c’est 7000€ et pas 5K€,

http://www.lesnumeriques.com/tv-televiseur/toshiba-55x3-1er-tv-4k-3d-sans-lunett…



et un videoproj SONY 18K€ on est loin de t’es 5K€, dans 2-3 ans probablement d’ici la ……





J’ai parlé de juin prochain, ce sont les tarifs prévus par Sony et Toshiba pour leur prochaine série de TV pour le début de gamme en 55”

Exemple :http://www.hdfever.fr/2013/01/08/sony-bravia-x9000a/

Voir la fin de l’article : 7000€ en 65”, 4500 en 55”


Le 21/02/2013 à 13h 14







Seth-Erminatores a écrit :



ouep mais tu te fusilles les yeux avec un full HD en 80” à 2,50m





D’où l’intérêt de la 4K pour un cas comme celui-ci.

Les écrans LCD ne fatiguent pas vraiment les yeux, en tout cas pas si tu regarde un film le soir tous les jours (si tu te fais l’intégrale Star Wars d’une traite je dis pas <img data-src=" /> ) et que tu ne balance pas la luminosité et le contraste à fond, bref si ton écran est bien réglé.


Le 21/02/2013 à 13h 12







Awax a écrit :



3m c’est la distance moyenne suite à une grande enquète. Et donc aussi, parle pour toi, faire rentrer une TV de 50” ou 65”, c’est un vrai prob physique. (Et mon salon est très grand, je suis au contraire dans le cas où un écran de 65” serait encore petit).

Qd tu joues tu es sur ton canapé. Et la distance moyenne constaté, comme je disais, c’est 3m.

Car elle même aura baissé de prix et tu ne verras pas la différence ?

Etrange, un 1080p 55” à 2m c’est la même densité de pixel qu’un iPhone Retina à 30cm. Et le texte est superbe.





Donc au final pour toi ça n’a pas d’intérêt, et pour moi ça en a.

Donc au final, ça a un intérêt, puisque certaines personne y trouveront leur bonheur.

Et les joueurs, au contraire, se rapprochent souvent de leur écran pour jouer (fauteuil ou quoi que ce soit).

Le but des télé de nos jours est de t’immerger dans l’image, comme au cinéma ou au final le mieux est d’avoir un écran englobant tout le champ de vision.

Alors cela passe par des distances raccourcies ou des télés plus grandes; tout dépend de la configuration de ton salon bien sûr. Et d’ailleurs aujourd’hui, pour des sources Full-hd de qualité, on conseille une distance de 2m pour un écran de 50” (3m pour du Hd ready et 4m pour de la SD, faut un canapé à roulette <img data-src=" /> )


Le 21/02/2013 à 11h 13







Awax a écrit :



Facile à faire. Tu prends un iPhone Non Retina (3G ou 3GS), iPhone Retina (4 ou 5) et un iPad Retina (3 ou 4). Tu met les iPhones à 30cm et tu mets l’iPad à 75cm. Tu peux le faire dans un Apple Store ou une Fnac ou avec tout appareil équivalent de Samsung ou autre, les tiens ou ceux de tes potes.



Avec cette configuration, iPhones et iPad ont quasiment la même taille (l”écran forme un angle de environs 17° dans ta vision). Sauf que l’iPad a 2 fois plus de pixel que l’iPhone Retina qui a 2 fois plus de pixels que l’iPhone Non Retina.



La question est donc : quelle est la différence que tu vois ? et laquelle est négligeable.



La réponse est simple : le passage de iPhone Non Retina à iPhone Retina te saute aux yeux. Le passage de iPhone Retina à iPad Retina est à peine perceptible.



Voila, démonstration terminée et facile à faire car avec des appareils déjà disponibles.



L’erreur de la plupart des personnes qui parlent de la 4K, c’est qu’ils se mettent debout devant la TV. Et effectivment, à 1 ou 2m de la TV sur un modèle 60-80”, la 4K change quelque chose. Sauf que dans ton salon, tu es assis à 3m et que tu n’a pas la place de mettre autre chose que 50”.





Parle pour toi, j’ai 50” et je pourrais pousser à 65” sans soucis si le budget suivait. Et tout le monde n’a pas sa télé à 3m.

Par exemple pour le jeu, la plupart des joueurs jouent à des distances bien plus faibles (mais bon avant qu’une console ne joue en 4K, va falloir attendre).

Tout le monde n’a pas la même configuration de salon que toi.

Puis franchement, si demain tu pouvais avoir une tv 4K au prix d’une Full HD, et ce avec une qualité aussi bonne, pourquoi prendre la Full-HD?

Qui plus est, des gens très intelligents vont sûrement nous trouver de nouvelles utilisations pour des écrans avec de telles résolutions.

Exemple con de bienfait de la 4K, un sous-titre est bien plus agréable qu’en Full-HD ;)


Le 21/02/2013 à 09h 24







Awax a écrit :



Merci à Sony de ne pas avoir mis en avant le support du 4K qui est un buzz marketing.



Quand la PS3 est sortie, les TV HD existaient déjà et étaient abordable. Le contenu HD était diffusé à la TV et les BluRay sortaient. Et par rapport à de la SD, le saut de qualité était phénoménal.

Et la plupart des jeux sont de toute façon en 720p et non en 1080p et dépassent rarement le 2530 image par seconde. Il reste donc de la marge de manoeuvre pour améliorer la qualité et la fluidité des images tout en conservant la même résolution maximale?



Pour le 4K, il n’existe qu’une poignée de modèles tout juste annoncés, quasi aucun n’est en vente et ceux qui le sont coutent le prix d’une petite voiture. Il n’existe aucun contenu et les industriels s’arrachent les cheveux pour savoir comment le diffuser lors qu’il sera dispo. Et le saut de qualité n’est perceptible que sur les TVs de taille gigantesque qui ne seront qu’une petite part du marché de la TV, la barrière n’étant plus le prix (qui baissera tot ou tard) mais la place physique nécessaire pour mettre une TV de 1,6m dans son salon.



Bref, toute personne qui se plaint de ne pas avoir le 4K sur la PS4 est un pigeon. J’ai des cables optiques avec connecteurs plaqués or à lui vendre.





T’as testé la 4K? Vraiment?

Car franchement sortir que cela n’a aucun intérêt est juste stupide. Alors oui il y a toujours la question du contenu pour l’instant introuvable, mais ce n’est pas pour ca que l’on doit dire d’une techno qu’elle est inutile.

Le contenu viendra avec le HEVC et les bluray 120Go.

Sinon les TV genre 42” Full Hd en 2006 c’était environ 3000€.

Sony et Toshiba on annoncé des TV 4K pour juin à environ 5000€ (des 55”), alors oui c’est un peu plus cher mais les prix vont se tasser de la même manière que pour les TV FHD.

Et ne pas oublier que l’essentiel des productions sont réalisées en 4K, ce serait dommage de ne pas en profiter…

Bref, autant la 3D à l’heure actuelle n’est techniquement pas assez aboutie pour être agréable à utiliser, autant la 4K l’est.


Le 21/02/2013 à 09h 07

Rooh jme suis fait mon ptit plaisir du matin, jsuis allé faire un tour sur jv.com pour voir les fanboys et le haters se tirer dessus à coup d’ogives nucléaires <img data-src=" />

C’est bon <img data-src=" />

Le 21/02/2013 à 08h 37







neeloots a écrit :



On n’a même pas vu l’apercevoir cette nuit lors de la conférence…



Quand ils disent qu’elle sortira “Holidays 2013”, ça correspond à nos vacances d’été (Juillet/Août) ?





Non novembre-janvier prochain… :(

Edit : Grilled frit <img data-src=" />


Le 21/02/2013 à 18h 20

En tout cas je préfère ce système à l’actuel.

Il a le mérite de ne pas marcher sur la tête. Il semble en effet plus logique que le “droit” de copie soit inclus dans le prix du morceau/album plutôt que sur un support qui hypothetiquement pourrait servir à stocker un morceau…

Le 21/02/2013 à 15h 14

Ouais bah ce sera crossfire de 7970 Ghz pour moins cher et plus perf.

C’est une carte qui n’a d’intérêt (pour le jeu) qu’en sli ou tri sli.

Celui qui n’en prendrait qu’une a tout intérêt à partir sur un sli de 680 ou un cross de 7970 (s’il est prêt à attendre un peu pour les profils multi-gpu…)

Le 21/02/2013 à 01h 16

Par contre si le truc avec le move ou les mecs sculptent et animent des figurines j’ai trouvé ça assez bluffant ! <img data-src=" />

Le 21/02/2013 à 01h 12

Date fin 2013, fallait avoir le temps de le lire sur le dernier slide de la présentation.

Donc c’était une conférence pour être le premier quoi…

Je reste un peu sur ma fin, mais bon on en saura plus à l’E3 je pense. Ça reste certainement une belle console, même si la démocratie de Quantic Dream me fait bien rire, afficher un visage pareil OK, mais peuvent-ils en afficher plusieurs en même temps, avec le corps modélisé et un environnement complet autour ? <img data-src=" />

Le 20/02/2013 à 11h 15

Effectivement il serait bon de connaitre la situation pour notre cher pays…



Mais bon gros <img data-src=" /> à MS, que ce soit pour nous ou les américains, un logiciel ne devrait pas être figé à une machine (hormis cas OEM).



Le pire c’est que si je ne me trompe pas, ils sont allés dans le bon sens avec Windows 8 version PUL (équivalent OEM) puisque dans ce cas on peut transférer la licence…

Jcomprends plus rien! <img data-src=" />

Le 19/02/2013 à 20h 28







picoteras a écrit :



Quelle peut être la durée de fonctionnement d’une telle carte graphique high end (sans trop la pousser dans un système de qualité, notamment avec alim et mobale choisies pour durer) ?



Parce que s’il est possible d’envisager de bons et loyaux services pendant, mettons, une quinzaine d’années, alors il ne serait pas absurde d’investir dans ce qui paraît aujourd’hui comme un produit destiné aux gamers invétérés et fortunés (un produit de luxe, donc) : sur 15 ans, cela reviendrait à renouveler tous les 5 ans une (bonne) carte de milieu de gamme à 300 €.



Est-ce envisageable ?





Non, la carte n’a que peu d’intérêt hormis pour les bencheurs ou ceux qui veulent le plus pour n’importe quel prix (je retire le cas du PC mini-itx)

Car un sli de 680 ou un crossfire de 7970 ghz sera plus performant pour bien moins cher…



Et dans tout les cas 15ans, non clairement pas possible.

Une 7970, on pourra sûrement la garder 5 ans, la titan 7 ans sûrement.

Mais dans tous les cas pour qui n’a pas besoin de grosse puissance dès le départ, mieux vaut changer tous les 3 ans En partant sur une carte milieu de gamme style 7870xt et changer plus régulièrement ;)

Car dépenser 200€ dans une carte tous les 3 ans, ça te coûtera aussi 1000€ sur 15 ans, je mais ta carte achetée en 2025 sera à des années lumière de la titan. Bref t’aura une belle progression toutes les 3 années, plutôt qu’une grosse augmentation puis ça reste stable.. Sachant que les deux courbes se croiseront d’ici 3-4 ans…


Le 19/02/2013 à 19h 34







Anna Lefeuk a écrit :



Je serai curieux de voir des tests dans le cadre d’attaque par force brute (ou autre méthodes) pour retrouver les mots de passe perdus de fichier personnels?



I have a dream



A.L.





Voilà ce que donne un tesla k20 qui est la base de cette titan (la titan est légèrement moins puissante car certains éléments ont été tronqués) :

http://www.brightsideofnews.com/print/2013/2/7/elcomsoft-nvidia-tesla-k20-beats-…


Le 19/02/2013 à 17h 06







bombo a écrit :



Je pense que le problème sur les écrans d’ordinateur c’est qu’ils sont réglable en hauteur/rotation/… j’imagine que c’est la cause des plastiques proéminent.





Peut-être ouais, mais on est quand même en droit d’attendre mieux…

Iiyama a des 24” avec des bezels fins (mais du Tn…) réglable dans tous les sens donc ça doit être possible même en 27” 1440p…


Le 19/02/2013 à 16h 57







bombo a écrit :



Yep je connais très bien CallSignVega, j’ai fait quelques recherches avant d’investir quand même :-p



Le souci c’est que ce sont des samsung difficilement trouvable chez nous et j’ai étudié les pour et les contre du 523” ou 327”, et vu que je peux utiliser mon PC pour faire d’autre choses que du jeu, j’ai opté pour avoir un espace exploitable en bureautique aussi :-)



Sinon en 1440p 27” ou 1600p 30”, niveau bezel, c’est pas comme si on avait beaucoup de choix :‘( j’ai pris le miens pour l’input lag relativement plus faible que les autres (hors écrans coréens) qui est quand même important quand on joue à des FPS. Sinon niveau couleur c’est assez bluffant quand même, sur des jeux comme farcry 3 qui se déroule en plein nature, ça change pas mal la donne.





C’est dommage pour les bezels, car ils nous sortent tous des TV gigantesques sur lesquelles c’est à peine si tu cherche pas le bezel, mais en moniteur, on a souvent des tanks…

Je vais attendre un peu, les prix se tassent sur le 27 1440p, et avec sa démocratisation, on aura peut-être des designs plus “fins”


Le 19/02/2013 à 16h 50







Anna Lefeuk a écrit :



Le problème du Tri-écran, ce n’est pas d’avoir une bête de combat qui roxxe du poney mais …

de faire accepter à sa belle les 3 “verrues” accrocher au mur (mon bureau étant dans le salon).

J’ai dû vendre mon âme et lui promettre un beau mariage pour pas me prendre un coup de massue: Je crois au final que question négociation, je ne me sois encore fait avoir….elles sont trop fortes, je vous dit <img data-src=" />





Hihi ouais je tente même pas le eyefinity dans le salon, trop peur <img data-src=" />

Dans le salon, j’ai pris un boitier HTPC à très haut WAF <img data-src=" />


Le 19/02/2013 à 16h 44







bombo a écrit :



Le scaling est correct en tri, mais le truc c’est que mes cartes souffrent pas plus que ça pour l’instant :-)



Sinon l’eyefinity portrait, c’est vraiment sympa, j’préfère perso, avec mes écrans et leur résolutions j’ai l’impression d’avoir une fenêtre ouverte sur le monde virtuel, c’est vraiment incroyable je trouve. MAIS il y a se problème de bezel qui me dérange vraiment, j’ai 3 Asus PB278Q, les bezels sont trop gros, et trop épais en profondeur pour que ce soit véritablement intéressant de les superposer. J’en ai démonté un pour voir et je peux pas retirer le plastique sans faire un peu de bricolage pour fixer la dalle sur la partie arrière relié au VESA, donc pour l’instant, tant que je me motive pas, j’utilise pas trop.





Ouais les bezels sont épais sur celui-là (et encore y a bien pire) mais c’est juste impossible de trouver un bon écran avec un bezel inferieur fin (y en a avec des bezels fins sur les côtés mais pour le portrait on s’en fout <img data-src=" />)

Le Must :

http://www.overclock.net/t/591413/official-ati-amd-eyefinity-club/2210#post_1759… <img data-src=" />


Le 19/02/2013 à 16h 20







bombo a écrit :



Non j’en ai deux, une MSI Lightning en “principale” et une 7970 ghz edition, de chez MSI, un peu OC, mais j’ai oublié le model j’crois qu’elle est vendu pour tourner en 1010Mhz et la première en 1070Mhz, faudrait que je check. J’ai pas pris deux Lightning pour avoir un port DVI-DL au cas où.



Honnêtement ça tourne, j’suis pas sûr de gagner tant que ça avec une 3ème.



Sinon l’eyefinity, honnêtement je conseil pas. C’est cool d’avoir 3 écrans, mais de manière générale deux suffisent. Et pour les jeux compatible avec eyefinity, c’est cool y en a plein, mais à chaque fois (quasiment) c’est l’HUD qui pèche, j’te laisse imaginer la vie, le radar, les informations en général qui se retrouve sur les bords gauche/droite des écrans externes (pour illustrer mes propos. Du coup je joue principalement qu’en mode “normal” un seul écran.



Y a aussi un effet “fisheye” que j’exècre, certains aime bien, donc faut voir. Puis bon, les écrans 1440p après c’est pas donné et le rapport gain/prix il est clairement pas là (surtout qu’il faut aussi la machine derrière, j’ai quand 2*7970, ça doit faire ~900€ de GPU + un gros CPU derrière pour assurer le CF).



Pour l’instant avec ma config, y a que farcry 3 qui me fait pêcher, mais il est hyper CPU dépendant ( malgré mes 6 coeurs HT cadencé à 4.4Ghz…) et j’suis obligé de jouer en “moyen” en mode portrait ( aka 4400*2560). Après c’est sûr que ça avait de la gueule, mais bon le bezel des écrans est toujours là pour te ramener sur terre :-)







Perso je joue qu’en eyefinity portrait, donc les problèmes de hud je les vois pas trop, mais je suis en 23” FHD, en 27” portrait ça peut changer les choses niveau HUD (surtout qu’il sera plus petit…).

Bref je me tâte encore, je vais déjà me prendre deux 7970 Ghz le mois prochain, je verrai comment ça tourne, et je pense que je ne changerai d’écrans qu’une fois évalué le besoin réel <img data-src=" />

Sinon le scaling en tri-fire de 7970 est plutôt pas mal (j’ai hésité un temps <img data-src=" />), je prendrai la carte mère qu’il faut pour pouvoir upgrader plus tard quand le PC passera sous Haswell <img data-src=" />


Le 19/02/2013 à 16h 00







manus a écrit :



Oui c’est exactement ce que je dis plus haut, la résolution de l’écran n’a pas un impact violent sur la RAM vidéo.

Par contre côté calcul là c’est autre chose.





Ouais mais normalement, en jouant en eyefinity ou surround, tu change le fov, donc plus d’info est affiché à l’écran qu’en simple moniteur, donc plus de texture à charger…

Je pense que ça vient de là…

Mais 6Gb ça reste un peu exagéré, mais vu le prix, il peuvent au moins mettre ça <img data-src=" />


Le 19/02/2013 à 15h 52







manus a écrit :



Pour du tri-écran en 1920*1080 et 3D (stéréo):

57601080256*2

379.6875MB de RAM vidéo par image

à 60fps

Soit 22.25GB/s de débit.

256=bits des layers de calcul en fullscreen (RGBA, hdr et autre)



Donc bon ça reste minime pour la mémoire… sinon faut que quelqu’un m’explique.





Ouais mais au-delà de la mémoire necessaire pour stocker l’image, il y a aussi le chargement de toutes les textures necessaires en mémoire car la cg ne va pas aller charger depuis le disque dès qu’elle a besoin de la texture “bois vermoulu” pour représenter une chaise <img data-src=" />

C’est là que skyrim bouffe un max car beaucoup de modes utilisent des textures ultra haute résolution…


Le 19/02/2013 à 15h 49







bombo a écrit :



Ouais mais c’est pas celle qui coûte chez pour ce qu’elle fait et qui bouffe 3 slots ? :‘(





Si <img data-src=" />

T’as pas qu’une seule 7970 pour tes 3*1440p rassure moi? :transpi

Sinon t’as quoi comme écrans? J’hésite à passer mon eyefinity 31080 en 31440p mais je suis pas sûr que les générations actuelles de cartes (ni même les prochaines) ne suivent correctement…


Le 19/02/2013 à 15h 39







Leezi a écrit :



Sur PC, tu rajouter des mods HD pour rendre l’univers de Skyrim maginifique, tu balance ça sur un haute résolution et tu pleure sur les fps qui font de la chute libre à l’infiniiii….. <img data-src=" />





Tu veux parler des fps qui tendent vers e (epsilon) ? <img data-src=" />


Le 19/02/2013 à 15h 28







manus a écrit :



Je ne comprends toujours pas pourquoi tout le monde parle de résolution écran pour les quantités de mémoire…

Le facteur le plus important étant la résolution/qualité et la quantité des textures gérés par le soft (jeu/application).

En 320x200 on peut saturé la RAM en faisant un scène avec que de grosses textures:

4096x4096*64 = 128MB

64=RGB+A+4 autre layers (specular, bump,…)

Donc 60 textures comme ça et les 6GB sont saturés. Sans utilisé des mipmaps.





Oui non mais là on parle des jeux classiques comme Skyrim pas de cas particuliers. Et bien souvent, plus la résolution est élevée, plus les besoins en mémoire se font ressentir (après je connais pas le pourquoi technique de la chose, je me base juste sur tous les différents tests sortis qui traite de ce sujet)





Skeeder a écrit :



Sur une configuration Eyefi, environ 10% de gain en passant de 3 à 6Go, mais le truc c’est que c’est une carte bi-GPU, donc la gestion de la mémoire est bien différente.





La 7970Ghz c’est une carte mono-gpu, c’est la 7990 (ou Ares 2) qui est bi-gpu ;)


Le 19/02/2013 à 15h 07







bombo a écrit :



C’est con qu’ils sortent ça que maintenant, ils auraient fait ça y a 4 mois je l’aurais probablement achetée &gt;.&gt; 6Go de mémoire exploitable, c’est la seule carte capable d’un tel prodige.





Non y a une 7970Ghz de Sapphire avec 6Go de mémoire et les tests ont montré qu’ils étaient… inutiles même en 5760*1080.

Après pour le futur, sûrement, mais d’ici là, y aura pleins d’autres cartes bien plus efficaces


Le 19/02/2013 à 14h 51

prem’s sur la news mais pas prem’s a acheter <img data-src=" />

Le 19/02/2013 à 16h 53

Vraiment pas con le iR dans le bouton on/off <img data-src=" />

Sinon joli téléphone, on verra les tests de ce nouveau capteur, par contre j’attends le marketing pour faire comprendre au gens que 4MP n’est pas forcément moins bien que 8 ou 13 MP <img data-src=" />

Sinon a quand le retour du zoom optique dans les téléphones? <img data-src=" />

Le 19/02/2013 à 15h 37

De toute façon des scores qui vont encore bouger avec les optimisations de drivers à venir dans les prochaines semaines…

Le 19/02/2013 à 13h 11

Mais toujours aussi moche <img data-src=" />

Le 19/02/2013 à 09h 46







FlaFla a écrit :



Yop,

je vais prochainement monter un pc, et il “manque” justement 2 ventilos sur le haut du boitier que je vais mettre en extracteur d’air (Carbide Series 500R).

Ma dernière config remonte à 2006, les ventilos de la tour hantec étaient en “molex” (4 pins) je crois et c’étaient ceux de base ;)



J’avoue que je m’y perds un peu avec les PWM etc… ça se branche sur la carte mère ?!

par ex. si je voulais installer cette chosehttp://www.hardware.fr/articles/886-13/nanoxia-deep-silence-fx-evo-test.html en 120 ou 140mm peu importe, c’est juste pour l’idée <img data-src=" /> !



Merci pour votre aide :)



ps. p-etre devrais aller sur le forum pour ce type de question ?



FlaFla





On peut te répondre ici, mais sur le forum ce sera plus posé et pratique ;)

Les Nanoxia sont de très bons ventilos (mais moche <img data-src=" /> ), il en existe à la fois en PWM (4 fils) ou en DC (3 fils).

Perso je prends souvent des ventilos classiques pour le boitier et du PWM pour le proc.

Le PWM rajoute de la précision dans les variations de vitesse du ventilo, ce qui est préférable sur un radiateur de processeur, mais pas nécessaire pour un ventilo de boitier qu’on préférera varier manuellement soit avec un rhéobus, soit, plus simplement, avec les logiciels de la carte mère ;)


Le 18/02/2013 à 14h 00

<img data-src=" /> HFR

Le 18/02/2013 à 09h 55

Ouais le prix est normal. Jme souvient de mon Innovatech pour 7950 GX2 dans les 190-200€ le waterblock <img data-src=" />

Le 15/02/2013 à 13h 37







amikuns a écrit :



C’est surtout pour les assurances.









Mastah a écrit :



En fait en Russie il y a énormément de fraudes aux assurances. Du coup les conducteurs filment en permanence.









DarKCallistO a écrit :



C’est un peu plus compliquer surtout en Russie,certains piétons font exprès de se faire percuter par une bagnole même a faible vitesse pour frauder aux assurances,d’où l’utilisation de plus en plus fréquente de caméra dans leurs voitures.



Edit : Rhaaagh !!!! Overgrilled,je fond !!! je fond !!! Haaaaa mes yeux !!!









RinSa a écrit :



Comme dis plus haut, pour les assurances et compagnie, les gens sont tellement désespérés pour la thune que certains vont jusqu’à provoquer des accidents et accuser d’autres personnes, ou carrément se jeter sous une voiture…





edit: Les dashcam sont là pour ce genre de trucs surtout









Elwyns a écrit :



C’est plutot pratique lorsqu’un accident arrivent de face , les 20 dernières minutes enregistré par la vidéo peuvent être intéressante ( Je dis 20 car certaine , reboucle toute les 20 min pour éviter d’utiliser trop d’espace de stockage , et puis quand il y a un accident pas besoin des 3h d’avant )





Merci, merci, merci, merci et merci <img data-src=" /> <img data-src=" />

J’ai jamais eu autant de réponses!<img data-src=" />

<img data-src=" />


Le 15/02/2013 à 12h 05







RinSa a écrit :



Merci les dashcams surtout





Y a vraiment des gens qui se baladent avec des caméras qui tournent en boucle dans leur bagnole? Où c’est genre la police ou je ne sais quoi?


Le 15/02/2013 à 08h 42

la 9.7” c’est une onda v972 légèrement modifiée non? :

http://www.lenteen.fr/tabletteandroid/onda-v972-allwinner-a31-quad-core-tablette…

Le 14/02/2013 à 16h 33

Dediou heureusement que c’est la bonne entente à mon bureau parce que les mails avec les conneries style powerpoint ou 9gag y en a un paquet qui passent et sont transférés…

Après le mec qui bosse depuis sa boite pro pour son entreprise perso, effectivement c’est moyen.

Là on a surtout du mal à se rendre compte de la quantité d’emails dont on parle…

Je pense qu’il y en avait un paquet…

C’est un bon jugement je trouve, pas de dommages et intérêts mais plus de faute grave car effectivement il n’a pas non plus divulgué d’infos confidentielles…

Le 14/02/2013 à 11h 06

Mouais, les résultats de recherche manquent quand même un peu de place avec cet affichage…

Si on pouvait supprimer certaines colonnes ce serait bien <img data-src=" />