votre avatar

manany

est avec nous depuis le 5 mai 2008 ❤️

73 commentaires

Le 28/04/2015 à 13h 37

Au USA ? Je crois que la valeur d’une vie humaine vaut beaucoup moins qu’une chanson…  en tout cas celle de ceux qui n’ont pas beaucoup d’argent…

Le 09/03/2015 à 12h 58

C’est sûr qu’en luttant contre “l’écoterrorisme” ils vont renforcer notre propre sécurité et tout ça pour notre bien seulement hein ?… 

“Bahvoui tiens c’est bon mange ton plat préparé à l’ogm plein de pesticides avec 46 additifs et pis n’oublie pas ton vaccin contre la grippe de la sauterelle, tfaçon y en aura pour tout le monde on en a commander 94 millions”



Les vrai écoterroristes c’est plutôt les gros comme monsanto ainsi que tout les corrompus du gouvernements et UE qui laissent faire du moment que leurs poches gonflent.



Quant à ces membre là de l’ALF, ce sont vraiment des crétins, pas des terroristes. Ils ont rien de plus utile pour défendre la cause qu’ils soutiennent ? ils feraient mieux de faire davantage de campagnes pour devenir végétariens et végétariens eux même pour commencer.



J’aime pas la chasse, mais les chausseurs, qui chassent en respectant les règles et pour se nourrir, qui font leurs propres steaks, saucisses, saucissons etc… Au moins ils ont le courage de le faire et assument le fait de manger de la viande. Et la mort est bien plus digne pour un animal, qui aura vécu déjà et qui était libre, et tué rapidement, d’une balle. Plutôt que de vivre dans un élevage industriel dans des conditions absolument ignobles tout en attendant une mort la prématurée.

Le 09/09/2014 à 19h 02

Et sur le LGA 1150 y aura du 6 cœurs au moins ? ou c’est encore reparti avec du 4 cœurs ?



edit = visiblement c’est que du quad core même pour skylake bon ben…… X99

Le 20/06/2014 à 12h 28



« Les moddeurs sont en général des joueurs créatifs et passionnés, et nous apprécions leur enthousiasme, mais si le mod en question (qui utilise ces anciens réglages) peut améliorer la fidélité visuelle du jeu dans certaines situations, il peut également avoir divers effets négatifs. Ceux-ci peuvent aller de soucis de performances jusqu’à des difficultés pour interpréter l’environnement et donc apprécier le gameplay et rendre potentiellement le jeu moins appréciable, voire instable ».





Rendre le jeu potentiellement moins appréciable voire instable ? ça me fait bien rire. Chez Ubisoft ont montre un jeu aux graphismes léchés, on fait croire que ça tournera en 1080p 60fps sur les consoles, pour finalement annoncer 6 mois de retards, des graphismes bien moyens sur console comme sur PC, très loin de ce qu’on a vu à l’E3 et en prime avec une résolution et des fps à la baisse sur console? Et quand des moddeurs trouvent le moyen de réactiver une partie de options visuelles volontairement cachées ? on se demande bien pourquoi au passage… On leur crache à la figure en disant que le jeu sera potentiellement instable, qu’une amélioration graphique serait détriment du gameplay oO ? Et que celà affecte les performances ? Nan mais affecter les performances sur PC on a l’habitude, soit ça passe en ultra et on est content soit ça on se contente de ce qu’on peut avoir.



Quand on voit les moddeurs passionnés sous skyrim qui au travers de patchs ont corrigés une quantité incroyable de bug, qui ont développé des outils pour nettoyer les fichiers dégueulasses du jeu d’origine, ainsi que deux patchs quasiment indispensable qui corrigent des bugs inadmissibles sur la gestion de la mémoire du jeu, sans lesquels les crashs sont assurés si tôt que le jeu charge trop en mémoire…



Il y a plus à attendre des moddeurs talentueux que des patchs officiels.

Le 13/06/2014 à 14h 31







loapinouminou a écrit :



les abrutis écologistes, qui aime le totalitarisme et le principe de précaution, à se niveau de nuisance, les écologistes font de la collusion.









“Qui aime le totalitarisme” t’aime dire n’importe quoi toi, ils ne demandent pas de couper l’internet des écoles, c’est pas comme si c’était compliqué de tirer des RJ-45, et en bonus ça renforce la sécurité informatique, c’est tellement facile de cracker une clef WEP.



Et effectivement ça ne solutionne pas le problème de l’exposition aux ondes, hein, suffit que les enfants rentrent à l’appartement, dans un immeuble où il y aura des dizaines de bornes wifi aux alentours, sans compter les wifi gratuits de la ville. N’empêche qu’à l’école ils y passent une grande partie de la journée donc ça minimise quoi qu’il en soit leur exposition en attendant de savoir si c’est réellement dangereux pour eux ou pas, mais comme toujours sur des sujet aussi sensibles avec des intérêts économiques très importants on aurait jamais la réponse. Simple question de bon sens.


Le 05/06/2014 à 09h 34







Charly32 a écrit :



Intéressant! Tu joues en quelle résolution?

Après le SLi c’est aussi plus exigeant pour le CPU qu’un mono-GPU ;)







En 1440p, et ça c’est sur que le SLi est exigeant! mais sur crysis 3 même avec une seule carte active, toujours au même endroit j’ai une baisse de framerate, due à une baisse d’utilisation du GPU, rien qu’en tendant l’oreille je le sais car la carte d”un coup soufle moins car elle travaille moins. Cela dit c’est nettement moins flagrant qu’en SLi car la baisse est moins importante, mais j’ai exactement le même nombre de fps qu’en SLi, vu que les cartes attendent le CPU, qu’il y en ai une ou plusieurs c’est pareil. D’ailleurs sur crysis 3, mon cpu est utilisé entre 96% et 99%% sur chacun des 4 coeurs ce que je trouve très surprenant.



Bon je vous rassure, la plupart du temps même avec 1 carte je suis a 60+ fps sur crysis 3 en ultra.







Mithrill a écrit :



Si je raconte pas de conneries le SLI pose parfois des soucis,

faut faire bosser un seul GPU pour les jeux mal optimisés (ou pas opti pour).



Sur certains jeux les SLI/crossfires font que tu a des pertes de framerates

et des bugs, même dans le cas d’une machine à 2000€…



Vois donc plus de ce côté là, si tu peux activer/forcer le mono GPU…

sinon ne pas oublier de vérifier les pilotes à jour bien sûr

et de chercher si tel pilote cause des soucis (m’est déjà arrivé cette tuile).







C’est vrai que dans de rare cas le SLi est innefficace ou cause même quelque problème, mais là c’est pas le cas aucun doute j’ai quasiment 100% de performance supplémentaire lorsque mon i5 pourtant à 4.8Ghz arrive à suivre.



Mais comme je disais je pense que je peux difficilement me tromper quand je dis que là, sur crysis 3 que le cpu est à la traine..vu son utilisation à presque 100% et mes cartes se tourne les pouces avec une utilisation en baisse, aussi bien en sli

qu’en monocarte…



Et le plus surprenant c’est finalement les résultat de l’i7 4770k qui affiche le même nombre de fps à 4ghz que mon i5 4670k à 4.6Ghz :x à 4.3Ghz sur l’i7 j’avais plus de fps que mon i5 à 4.8ghz :/



ça faisait longtemps que j’avais pas eu de desktop et je me souviens des vieux hyperthreading inefficace en jeu, et bien c’est plus le cas on dirait :/ et aussi je suis parti sur l’i5 parce que tout le monde dit que l’i7 est inutile et n’apporte rien… C’est en fait vrai lorsqu’on est GPU limited seulement, mais avec un GPU très musclé type GK110 ou R9 290(X) on peut déjà faire la différence sur certain jeu. Je le vois bien aussi sur Skyrim (ultra ultra moddé, mais bon ce jeu est codé avec des pieds et le cpu dépasse pas les 60% d’utilisation..).



ocaholic à publié des articles assez intéressant également, ici sous crysis 3 et là sous skyrim on voit clairement que même en 1080p à 4.5Ghz l’i5 est tout juste équivalent à l’i7.. bon ici c’est pas flagrant car la carte de test est une 7970, mais avec un SLi de 780 ti ou un crossfire de R9 290X je suis sûr que ce serait flagrant.



Clairement pour un multi GPU haut gamme, un i7 4770k ou 4790k c’est un minimum si on veut pas brider ses cartes…



Je me demande si les hexacores de la plateforme 2011 apportent plus de performances pour une configuration multi gpu haut de gamme..



Dommage que Ocaholic n’a jamais fait la comparaison, plutôt que les comparaisons moins intéressantes entre les hexacores, mais malgré tout qui illustre clairement ici et même avec les hexacores, car sur un jeu ou le cpu n’est pas limitant, clairement le gain apporté par l’oc du cpu devrait être minime voir inexistant.



Encore une fois bien dommage qu’ils n’aient pas fait de comparaison avec l’i7 4770k ou même le 3770k.


Le 04/06/2014 à 07h 38







Charly32 a écrit :



Quelle architecture ton i5?

Quel type d’usage?









Usage gaming principalement (et overclocking évidement) je fais pas que ça, mais rien d’autre qui nécéssite ce surplus de performances.



C’est un bon i5 4670k, mais crois le ou non, sous certain de mes jeux favoris c’est un goulot d’étranglement pour mon SLi de 780Ti (qu’elles soient OC ou non) je pense que l’i5 manque cruellement d’hyperthreading.

Clairement, mes cartes se tournent les pouces par moments, avec une utilisation qui passe de 100% à 40% = grosse chute de fps -> 120 à 40, et à ces moment le SLi n’apporte absolument plus rien contre 80% de perf en plus lorsque tout va bien.



Car j’ai pu comparé les performances avec un i7 4770K d’un ami dans mon PC, sur Crysis 3 (ne fait pas parti de mes jeux favoris) qui pose de sérieux problème à mon i5, par endroit et je dis bien par endroit seulement ! Il serait tout à fait possible de faire un becnhmark (un mauvais) qui ne montre aucune différence entre un i5 4670k et un i7 4960X.

Bref même avec un i7 4770k moisi à 4.3Ghz (son max oc) j’ai plus de perf qu’avec mon i5 a 4.8Ghz.

Tandis qu’à fréquence égales c’est 25% de performances en plus lorsque je suis CPU limited.



Du coup j’ai pas envie de passer sous du LGA 2011, vu le prix de carte mère et des proco, bien qu’un six coeurs serait nettement moins limitant.

Avec Broadwell ça sera toujours du 4 coeurs et il faut que je change de carte mère.. donc je pense partir sur l’i7 4790k si il tient ses promesses en OC (5Ghz en air) et si gigabyte les supporteras, sinon j’irais voir dans l’occasion pour un i7 4770k.



Du coup, un i7 4790k à 5Ghz ça me fait bien envie <img data-src=" /> sachant que j’ai la capacité de le reffroidir jusqu’a 1.45v


Le 03/06/2014 à 15h 27

Petite coquille dans le titre : “Les Core i5 4690K, i7 4690K 4790K et Pentium G3258 s’affichent chez les revendeurs”



Aux dernière nouvelles les Devil’s Canyon seront compatible sur certaines carte mères Z87, ça dépendra visiblement du constructeur et de la mise à jour des bios. Asus a déjà annoncé le support des Devil’s Canyon sur certaines de ses Z87 via de nouveau bios.



J’espère que les autre fabricant de carte mères suivront car j’aimerais bien me prendre un i7 4790k mon i5 même a 4.8Ghz est le facteur limitant dans ma config.



Il risque d’avoir une très courte vie ce Z97…

Le 26/03/2014 à 11h 28

J’avais de grand espoir pour Occulus VR, bon, ben reste plus qu’a se tourner vers Sony avec leur morpheus…



Ah oui mais non PS4 only.



Bon, ben tant pis.



CREVE FACEBOOK ! <img data-src=" />


Le 17/10/2013 à 09h 49

TITAN a 600€ aussi <img data-src=" />

Le 16/10/2013 à 13h 51







David_L a écrit :



Attention tout de même. Dans la pratique, on dit “faire des bénéfices”. On verra bientôt si AMD s’y met à son tour malgré les récentes baisses et grâce aux contrats des consoles <img data-src=" />







J’espère vraiment que les consoles et le R9 290 (pour le R9 290 j’y crois pas trop) ça va faire renouer AMD avec les bénéfices pour qu’il nous concoctent des CPU à la hauteur de ceux d’intel… Car y en a marre du monopole pour les CPU…

Heureusement qu’ils assurent pas mal question GPU.







colonelc4 a écrit :



Et moi qui rêve d’une 270X….je me demande quel est l’intérêt de jouer à des jeux a des résolution de 2560 ??? le full HD n’est pas suffisant ?, j’ai l’impression que sur grand écran les textures baveuses le sont plus, et les graphismes hideux le sont plus…c’est pas le cas de tout les jeux mais y’en a quand même pas mal.







T’a qu’a utiliser un 15” 1024x768 tu verras les graphismes déchirent encore davantage qu’en full-HD <img data-src=" />


Le 16/10/2013 à 13h 38







yeagermach1 a écrit :



Viseur electronique… Il y a une sacré nuance entre ce genre de viseur et un viseur reflex.







Pour avoir tester l’A77 et le NEX7 je trouve le viseur OLED de sony nettement plus pratique qu’un viseur optique de reflex <img data-src=" />


Le 16/10/2013 à 09h 24







methos1435 a écrit :



+1 …

C’est dommage parce qu’un hybride Full Frame, ça peut être sympa, mais le prix est, pour moi, abusé…





<img data-src=" />



C’est quoi cette manie de vouloir fourrer du tactile partout !!!







Le prix est certes élevé mais loin d’être abusé. Comparativement aux autres plein format, quels qu’ils soient, le prix est même très raisonable en fait il tirera même le prix du plein format à la baisse. La quasi totalité des 24x36 boitier nu sont annoncé à partir de 2000€.



On trouvera le A7 à moins de 1400 dans de bonnes boutiques très rapidement.



Et en terme de qualité d’image, ils seront sans doute dans top 5 des plein format du classement DxO en compagnie du D800E si ce n’est pas devant.





Et pour ce prix, je préfère le A7r à n’importe quel reflex. Au moins c’est le genre d’appareil que je peux avoir sur moin 90% du temps, quand je me ballade, contre 10% pour un bon vieux reflex FF.


Le 04/10/2013 à 11h 07

Du troll parlementaire de haut niveau là ?



Plutôt que de s’attaquer à de vrais problèmes ils cherchent les poux là ou il n’y en a pas qui à contraindre encore davantage les citoyens…

Prochaine étape interdire d’écouter sa musique avec ses écouteurs dans la rue, puis interdiction de lire le journal en marchant, etc etc ? faut arrêter la fumette.



Si il veut de vrais sujet préoccupant concernant notre sécurité il y a masses de sujets qui traînent, voici ce qui me vient en tête :





  • Utilisation préoccupante de l’aluminium comme adjuvant dans les vaccins alors qu’il existe depuis longtemps l’adjuvant au phosphate de calcium qui lui est sain. (Alu = neurotoxique alzeimer, parkinson + maladies des muscles)

  • Utilisation massive de pesticides/herbicides/fongicides en france (2ème plus gros consommateur au monde, 100 000 tonnes chaques années)

  • Imposer aux industriels la mention huile végétale hydrogénée plutôt que des laisser les consommateurs dans le doute.

  • Sans parler de tout les additifs/arômes chimique qui envahissent n’importe qu’elle préparation industrielle.

Le 03/10/2013 à 16h 42

Merci nvidia d’avoir imposé deux ultra haut de gamme ultra couteux.

Maintenant AMD risque de faire pareil.

Le 12/09/2013 à 15h 30







Mokradin a écrit :



Moi depuis Opera 10







Et moi depuis le 9.



Et je suis resté au 12.15….. je vais attendre que les version webkit murissent car avec la 15 j’avais trop l’impression d’avoir un chrome avec une légère touche d’opera… :/ déçu.


Le 29/08/2013 à 14h 40

tfaçon moi avec free, j’arrive jamais à atteindre les 3Go par mois tellement c’est lent… C’est comme si je suis en permanence bridé alors que je ne le suis officiellement jamais.



Si seulement j’avais toujours 128kbits en permanence ce serait déjà pas mal mdr

Le 22/08/2013 à 14h 00

Sony devrait leur interdir de publier le jeu sur VITA.

Le 23/07/2013 à 09h 03







eYo a écrit :



Même en passant l’éponge sur le manque de fonctionnalité comme dans Opera 12, mettre des favoris ça serait pas mal quand même …



Perso, j’utiliserai ce navigateur si il y avait rien que ça, mais la, le système de signet sur la page de démarrage… c’est cool quand tu en as 10, mais rien qu’avec les 70 que j’ai c’est déjà le bordel…



EDIT :http://www.chromium.org/ “the open-source projet behind google chrome”







O_o ??



Tu confonds signets et speed-dial



On peut très bien avoir des signets à l’ancienne ou avec petites icones peu n’importe où dans opera 12.


Le 23/07/2013 à 08h 58

Depuis la sortie de la version 15… je suis repassé aux 12.15

Un opera qui ressemble à chrome ? <img data-src=" />

Le 19/07/2013 à 12h 06

Anno 2070 sera mon dernier jeu ubisoft…

Ubisoft ou comment ne pas pouvoir jouer à son Anno 2070 sur son PC quand on a pas internet.

Ubisoft ou comment avoir sa licence Anno 2070 avoir dans le UC quand tu formate plus de 3 fois ton PC.

Ubisoft ou comment avoir sa licence Anno 2070 dans le UC quand tu change ta carte graphique 3 fois. (bon celle-ci ne compte qu’a moitié vu qu’ils ont abandonné ce DRM méchamment pourri.)

Ubisoft ou comment être pris pour un con pendant plus d’un mois quand tu explique que ta clé ne fonctionne plus. (service technique : Vous avez bien mis votre carte son à jour ? Euh ok tu me prends pour un con le jeu ne se lance même pas.)

Ubisoft ou comment devoir pirater ton propre jeu.

Le 19/07/2013 à 01h 18







tmtisfree a écrit :



Pas encore, il faudra attendre le 16K pour y parvenir (soit 3840 x 4 x 2160 x 4 = 15360 x 8640 ~= 132 millions de pixels soit un peu plus que le nombre moyen de cônes et de bâtonnets dans une rétine humaine).









Oui, sauf que ce sont les cônes qui permettent la visions des couleurs et des détails et leurs nombre est en moyenne de 7 millions contre 120 millions de bâtonnets qui eux ne perçoivent que la luminosité et pas les couleurs et que des détails grossiers.



Donc Pvond n’a pas tort, l’image d’une TV 4K devrait être plus résolue que celle perçue par un oeil humain, mais toujours inférieure à la vision à deux yeux j’imagine.



Nos appareils photos nous surpassent peut-être dans la résolution, mais lorsqu’il est question de dynamique, nos yeux sont bien meilleurs que n’importe quel reflex plein format, peut-être grâce aux grand nombre de bâtonnets ?



Pour en revenir aux bâtonnets qui sont spécialisés pour percevoir la luminosité et qui ne perçoivent pas bien les détails, ce qui fait que lorsqu’il manque de lumière on ne peux pas lire, pourtant on voit les lignes/paragraphes. C’est aussi la raison pour laquelle dans la journée nous verrions mieux que les chats, par exemple, qui eux ne verraient pas beaucoup de couleurs et pas bien net.



Fait intéressant nôtre vision nocturne met entre 10 voir 15 minutes à s’activer, et à ce moment en pleine nuit si vous scruté l’horizon vous distinguerez davantage de chose en levant un peu les yeux que lorsque vous le fixiez parce que les bâtonnets, bien que présent sur toute la rétine leur concentration est nettement supérieure sur la périphérie de la rétine. Tandis ce que les cônes sont au centre majoritairement, ce qui explique probablement en partie pourquoi nous voyons mieux au centre de notre vision.


Le 12/07/2013 à 15h 15

Si seulement ils pouvaient nous faire un Unreal Tournament digne du 2004 et pas une grosse bouse comme le fut unreal tournament 3.



Mais bon… Unreal Tournament 20042003 ce ne sont pas des jeux pour console alors que Unreal Tournament 3 oui…

Donc j’ai peur qu’ils nous bousillent tout espoir sur pécé.



Comme dit Jean_peuplus :



Unreal Tournament de console <img data-src=" />

Le 06/07/2013 à 07h 14







jack oneill a écrit :



Le dentifrice est surement le moins idiot pour remplacer de la pâte thermique …







Le dentifrice ça sèche je sais pas si ça marcherais bien, mais bon, faudrait essayé, en tout cas vu les performances de la mayonnaise, ça me ferait bien rire qu’un dentifrice à la menthe forte soit plus efficace que toutes les autres pates thermiques.



Mais je le connaissais déjà le coup de la mayo comme pate thermique et en plus elle fonctionne mieux que beaucoup d’autre pate thermique MDR, mais bon pas sûr que ça tienne dans le temps.


Le 02/07/2013 à 19h 47







Reznor26 a écrit :



Peut-être qu’il fait ça parce qu’il a pas de quoi se payer une boîte de cassoulet ?









Il ferait mieux d’aller manger aux resto du coeur dans ce cas.


Le 27/05/2013 à 19h 22

Il serait peut-être temps qu’il se bouge le fion free…



Parce que vive les débits merdique que ce soit en isère ou en haute savoie, exemple jeudi soir dernier à 2 heures du matin à Grenoble sur mon galaxy note 2 je lance un test de bande passante : 13kbits en téléchargement, l’upload c’est même pas la peine ! et je suis en 3G/H+.

Le mois dernier ma consomation de data = 51mo à quoi me sert mon smartphone ? à rien… c’est tellement lent rien qu’une recherche google.

(avant j’étais à 4Go de conso et 800kbits, mais ça c’était en fevrier 2012, et pourtant les appels c’était le bordel pour réussir à en passer un.)

j’arrive pas à trouver les mots pour dire comment je me sens que je me suis fais entubé.



Du coup… je songe à changer… mais chez qui aucune idée.

Le 23/05/2013 à 22h 26

J’espère qu’il garderont ces cooler pour la prochaine génération parce que waoh !

Ce serait bien la première que j’aurais pas envie de remplacer le cooler.

Le 23/05/2013 à 22h 06



Si l’on se base également sur les déclarations faites par Mark Cerny, l’un des concepteurs de la PlayStation 4, les deux consoles ont aussi un certain avantage grâce à l’utilisation de mémoire unifiée, qui permet de passer outre le goulet d’étranglement que peut représenter le bus PCI-Express.





Du grand n’imorte quoi je pense ! pourquoi ce serait un goulet d”étranglement quand on voit que sur une GTX 680 / HD 7970 quelque que soit la génération du PCI-e X16 les performances reste quasiment identiques ??

Suffit de jeter un oeil ici pour s’en convaincre :

http://www.techpowerup.com/reviews/Intel/Ivy_Bridge_PCI-Express_Scaling/23.html



J’utilise actuellement une GTX 670 externalisée sur mon ordinateur portable, elle est relié à un port mPCI-e, ce qui correspond à du PCI-E X1 de génération 2.0 (donc à du PCI-E X2 gen 1.0) nvidia via ses driver permet à une carte graphique à partir du moment où elle est connecté en X1 (et seulement X1) une compression de bande passante. Celà améliore très nettement les performances. Avec la compression optimus, la configuration X1 2.0 de mon GPU correspond davantage à du X2 2.0.



Et bien ça correspond à peu près à 75% des performances du PCIe 16X 2.0 pour une GTX 680 !



Donc je ne vois pas comment on peut qualifier cela de goulet d’étranglement ? ou alors c’est pas très significatif…

Le 23/05/2013 à 21h 52







hachu21 a écrit :



dans le 808 sous symbian, le capteur de 41mp est “très grand” (pour ce type d’appareil) : 11.2” soit plus grand que la plupart des compacts experts (pana LX7, Canon G15, olympus XZ2…) mais un peut plus petit que les capteurs 1” que l’on trouve dans les Nikon one et Sony RX100.



Pour le bruit en basse luminosité, ils utilisent un algo d’oversampling pour sortir une image de résolution classique (3, 5 ou 8mp) de belle qualité.



Accessoirement, il y a un vrai objectif qui ouvre à f/2.4 (1 groupe de 5 éléments)



Le résultat se situe entre les compacts experts et les mirrorless, ce qui, pour un télephone, tient de la prouesse technologique.



Bref, avant de crier au loup, merci de vous renseigner!









C’est sur que le capteur est très grand mais avec 41 megapixel… sur ce capteur les photosites sont vraiment petit 1.4µm apparement, ce qui engendre normalement rapidement du bruit électronique en basse lumière et en montée des iso. Je me demande comment il s’en sort sur ce point ?



C’est marrant parce que le fait de dire qu’on peut du coup sortir de belles images en 3, 5 ou 8mp ben c’est un argument qui ne ressort jamais pour le test d’apn numérique. ça me rappelle les NEX où tout le monde critique le NEX-7 (surement de jalousie) en disant qu’en montant les ISO il était mauvais, mais une fois les images redimensionné de 24mp à 16 il est aussi bon que les autres NEX.

Mais bon je me demande quand même pourquoi 41 Mp ? c’est tellement marketing un 20Mp aurait déjà été énorme !



Pour l’objectif je plussois, il a un bon objectif, et même à 38mp il permet des photos d’une netteté étonnante, mais F2.4…c’est pas assez, ça correspond à du F8 voir plus petit en équivalent 35mm donc pas de flou d’arrière plan, à moins que le téléphone soit doué en macro comme mon GN2 !


Le 23/05/2013 à 21h 27







vinciego a écrit :



Pour constater l’interet de ce bijou, il suffit de regarder les resultat du pureview… Qui est plus entre le EOS 600D le Nikon D3200 que proche du D70….









Euh sur quoi tu te base pour dire celà ?? Quel résultats ?

Si tu parle des scores présent sur DxOMarks, tu te met le doigts dans l’oeil et pas qu’un peu.

Les score mobiles n’ont rien à voir avec les scores des appareils photos classiques, si ils se basait sur la même notation, il serait très loin derrière !



En revanche, la netteté du pureview est vraiment surprenante, pas parfaite mais bien mieux que ce à quoi je m’attendais. je pensais pas que l’optique suivrait mais en fait si elle suit J’ai vu ça sur DPreview il me semble.


Le 23/05/2013 à 21h 16







RDeluxe a écrit :



Joli montage. J’ai toujours eu envie de faire la même chose (notamment avec mon Vaio de l’époque, ou mon Zenbook) mais le nombre de soucis à régler m’a toujours un peu refroidit.









Merci, c’est sûr que c’est pas toujours évident, j’ai du faire un trou dans la plaque sous le SVZ (enfin je m’en suis commander une de rechange, l’originale est intacte) alors j’imagine que pour un Zenbook c’est encore plus compliqué !

Surtout pour le faire proprement, moi j’ai fait une fine trappe en métal qui vient se refermer sur le trou quand je débranche l’eGPU comme ça, le trou ne reste pas béant.


Le 23/05/2013 à 21h 08







Zulgrib a écrit :



Très cool tout ça, par contre il faut forcément une alimentation spécifique, puisqu’une alimentation classique attendra la carte mère, exact ?



pour en revenir à l’article hp, j’ai très peur des oridnateurs portables hp à cause du nombre de hp que je répare pour cause de surchauffe…







Nan il n’y a pas besoin d’alimentation spécifique, il te suffit simplement de démarrer l’alimentation du PC en reliant sur la prise ATX avec un fil de fer la fiche verte à une fiche noire et le GPU avec le PE4L 2.1b utiliseront juste ce qu’ils ont besoin.



En ce oment j’utilise celle ci :http://www.fspgroupusa.com/fsp30060lg/p/791.html

Elle est vraiment géniale, 300W et si petite… plus petite encore que ma mini GTX 670 (elle a un cooler de zotac 660 TI AMP mais c’est une 670 eVGA 4GB SC+)



J’ai même utilisé un alimentation de XBOX 360 pendant un temps, la version 203W suffit amplement même pour une 680 (à condition de pas abbuser dans l’OC, c’est pour ça que j’ai changé.) ça marche très bien, bon faut la modifier, faut faire ressortir des cabbles du fil, il y a 3 ou 4 12V et un 5V tu raccorde tout ça à trois rallonge molex que tu connecte à deux adaptateur PCI-e et à un adapter floppy pour alimenter PE4L 2.1b qui correspond à un port pci-e express X1 2.0 (ouai c’est pas du 16X lol donc ça bride un peu mais nvidia et sa fonction optimus qui comprime la bande passante et permet même un affichage sur l’écran du portable.



Sinon un des inconvénient avec l’eGPU, c’est que les performances sont moindre sur l’écran du portable, on est limité à 51 FPS maximum en 1920x1080 et 32bit, peu importe les réglages. mais là encore même les dernier jeux passent assez bien. Mais c’est vraiment plus performant sur un écran externe la plupart du temps.


Le 23/05/2013 à 11h 42







Suuldam a écrit :



Après c’est un ultrabook, c’est pas vraiment fait pour jouer (AMHA).









Faux ! du moins pas si le portable a un port mPCI-e libre/accessible ou du thunderbolt.



J’ai un sony vaio SVZ, et vu ses dimensions, il est plus petit, plus fin et plus léger que l’immense majorité des ultrabooks. 1.18Kg 16mm d’épaisseur, 13.1” 1920x1080 et wide gamut ! Donc un ultrabook haut de gamme.

Il dispose d’un Quad core ivy bridge @ 2.8 Ghz (turbo toujours ON car bien refroidit !) 8 Gb DDR3 1600 Mhz, un raid 0 SSD très rapide.



J’ai externalisé une GTX 670 que j’ai branché à un mPCI-e, vise moi un peu ces performances graphiques <img data-src=" />



http://www.3dmark.com/3dm/503095

http://www.3dmark.com/3dm11/6365557

http://www.3dmark.com/3dmv/4655418

http://nsm08.casimages.com/img/2013/04/15/13041508252515755611089808.png



Ma config en détail là :

http://forum.techinferno.com/diy-e-gpu-projects/2109-diy-egpu-experiences-[ver…



Autant dire que tout les dernier jeux tournent détails aux max (enfin sauf crysis 3…)


Le 23/05/2013 à 03h 49

Ma copine : c’est quoi ce gros machin tout noir ? t’a acheté ça combien ??



Moi : ça sert à rien mais j’ai trouvé ça joli <img data-src=" />



Ma copine : Je peux essayer ?



Moi : Tu peux pas test !



Ma copine : Ouai t’façon ça sert à rien !

Le 22/05/2013 à 01h 22

Je prie pour que les prochains résultats financier d’AMD repassent dans le vert grâce à ces consoles !

Le 21/05/2013 à 18h 05

Je me dis que pour ceux qui reste sur PC comme moi, c’est pas le moment d’investir, dans du nouveau matos.

Car lors des portages PS4/Xbox one vers PC ça risque de sacrément faire ramer les GTX 600700 notamment due au manque de VRAM de ces GPU, du moins si la Xbox One à une RAM unifiée comme la PS4.

Le 21/05/2013 à 17h 49

Question con, j’ai pas de console (hormis une vita lol) mais est ce que les joueurs PS3/XBOX peuvent jouer ensemble en ligne sur un jeu commum au deux consoles ? Ou est ce que les joueurs des deux mondes ne peuvent pas se rencontrer en ligne ?

Le 21/05/2013 à 17h 43

Microsoft games sortira 15 nouveaux jeux la première année O__O

Le 21/05/2013 à 17h 31







Jean_Peuplus a écrit :



huit coeurs… utilité ?









je vais pas m’en plaindre si ça donne des jeux à l’avenir qui bénéficient réellement du multi coeur sur PC! parce qu’il ne cours toujours pas les rues.


Le 09/05/2013 à 13h 06

“CONGRATULATIONS!

It would take about 30 044 104 548 years to crack your password.”





Je crois que c’est pas demain la vveille qu’on trouvera mon mot de passe messagerie en brute force.

Le 06/05/2013 à 11h 16







camszdzs a écrit :



Tords partagés de mon point de vue. Faire de la thune en piratant, c’est moralement répréhensible, on n’est plus dans le partage mais dans le bizness.



Mais vu la clique qu’y a en face… disons qu’ils sont pas dans le partage non plus <img data-src=" />



Mais le plus simple c’est encore d’ignorer purement et simplement leur merdes.



Crier à la “culture pour tous” et faire son blé en uploadant le dernier Avenger ou je sais plus comment ça s’appele…. ça manque de crédibilité <img data-src=" />







Ah bon parce que t’a l’impression que le fait qu’il fasse de l’argent avec des pubs ça contredit son slogant ? “films pour tous” oops “culture pour tous” ?



Genre se faire de l’argent avec des pubs sans pourtant de t’empêcher de télécharger ton film gratuitement tu trouves que c’est plus du partage ?



Je dis pas que ce qu’il fait est bien, je pense juste que c’est plus intelligent que de partager sans se faire un peu d’argent. Sans argent y aurait pas de site de partage non plus. Et partager sans se faire de fric je trouve ça tout autant condamnable.



Qu’il se fasse de l’argent où non avec les pubs, ça changera pas le taux de piratage / ni le nombre de vente non plus.


Le 18/04/2013 à 10h 10







doom_Oo7 a écrit :



Pas de thunderbolt ni d’e-pcie t___t







Tu te cherche un ultrabook pour de l’eGPU <img data-src=" /> ?


Le 18/04/2013 à 10h 09

edit : j’avais vu que c’était au sujet du HiDPI x__x

Le 15/04/2013 à 08h 17

Cher payé pour l’avoir dans sa propre langue… ça craint.

Et ceux qui au Japon le veulent en VO et ben ils devront aussi l’acheter 80 $…

Le 10/04/2013 à 12h 54







Neeko a écrit :



@Taomon : on parle des appels téléphoniques, pas des arnaques par SMS



@manany : idem. Tu n’es pas très vif si tu réponds à un 0899…











Toorist a écrit :



ou alors une grand mere de 80+ qui a peur de rater l’appel de ses ptits enfants (ca m’a pris un moment a lui faire comprendre ca …)









Avant de savoir que c’est une arnaque faut répondre la première fois, commentaires à la con.


Le 10/04/2013 à 12h 30

Ce serait bien aussi qu’ils essaie de stopper les arnaques téléphoniques… Parce que je préfère payer un numéro surtaxer à l’état mais pas à des escros…

Parce que le coup du numéro en 0 899 XXXX qui tappèle tu répond personne au bout du fils ça raccroche et tu viens de te faire plumer, ou encore la même chose en appelant inconnu/ numéro masqué et qui dit allô? allô? allô ? aaalloooo ?? et ça raccroche et tu viens à nouveau de te faire arnaqué ça commence à faire.

J’en reçois tout les jours en ce moment et j’arrête pas de les envoyer sur mon répondeur mais ils continuent.

Le 09/04/2013 à 17h 45

Etant une “personne publique” je trouve ça assez dingue de lâcher des insultes homophobes alors qu’on est devant les caméras…

Vive l’homophobie et l’intolérance!



Et si il en a marre des pseudonymes sur internet il existe une solution beaucoup plus simple. Débrancher son routeur et faire autre chose, qu’il aille plutôt apprendre des gestes de premiers secours et sauver des vie par des gestes simples comme le suggère Xavier.

Le 08/04/2013 à 21h 57

@HarmattanBlow



Tu penses que grâce à la PS4, on aura bientôt (GTX 7XX / HD 8XXX?) des GPU pour PC avec 8Go de VRAM, sans pour autant exploser son porte monnaie ?



En tout cas c’est une bonne nouvelle que la PS4 (et future Xbox) va probablement donner un bon coup de fouet graphique pour les prochain jeux.

Enfin j’espère, parce que depuis Crysis sorti en 2007, (presque 6 ans déjà :o) l’évolution n’est pas si flagrante..



Bien que n’étant absolument pas expert, je confirme le fait que ça risque de ramer sévère un jeu PS4 porté sur pc qui demande disons 6-7 Go de VRAM pour des réglages maximum ! à moins d’avoir une TITAN <img data-src=" />



Parce que je suis passé d’une GTX 660 Ti 2Go (fortement OC) à une GTX 670 4Go et ce surplus de VRAM ne me sert que pour Skyrim que j’ai beaucoup “moddé” et qui regorge donc de textures 4k.

Sur ma GTX 660 Ti j’avais d’énorme freeze, et ça ramait sévère par endroit. La mémoire consommé par Skyrim, en extérieur, était constament à plus de 1700Mo et souvent à 2000Mo alors même que je ne suis qu’en 1920x1080 et que je n’ai pas de MSAA activé (mais FXAA oui).

Mais depuis, avec ma GTX 670 4Go il n’y a plus aucun ralentissement/freeze c’est 100% fluide :o et je dépasse facilement les 2048 Mo de VRAM utilisée toujours sans MSAA.

Donc dans ces conditions, même une GTX 680 2go (fortement OC) aurait du mal à s’accommoder face à ma GTX 670 4Go.

Et si je comprends bien le même scénario pourrait s’appliquer à la 690 qui n’a que 2Go de RAM par GPU interfacés en 256bits chacun.

Le 08/04/2013 à 20h 45







HarmattanBlow a écrit :



Non, la bande passante entre RAM et CG est trop lente (500Mo par 1/60ème de seconde), tu dois avoir en VRAM tout ce qui est nécessaire au rendu d’une seule image. La RAM ne sert que pour les infos non-destinées à l’affichage et éventuellement pour stocker ce qui n’est pas encore visible. Or plusieurs jeux PS4 utiliseront vraisemblablement plus de 2Go de données par rendu.









Sans doute que l’affichage des jeux en 4K y sera pour quelue chose nan ?


Le 04/04/2013 à 11h 05

Ah d’accord merci pour ces explications !