votre avatar

azedrummer

est avec nous depuis le 16 mai 2008 ❤️

113 commentaires

Le 14/07/2018 à 06h 27

Ma source principale d’info sur le numérique depuis plus de 10 ans , tout simplement !



L’arrivée du site dédié au hardware va bientôt vous faire un abonné de plus !

Le 02/03/2017 à 11h 14







CounterFragger a écrit :



Ce n’est pas plutôt parce que la “qualité studio” 24192 requiert un matériel exigeant (et aussi sûrement une source “exigeante” qui n’est pas de la variété) que ne possèdent pas 95% des mortels ? Les études scientifiques sur ce sujet, on en lit régulièrement, mais le plus important reste le ressenti à l’oreille.



Quant aux enregistrements des années 80, j’avais lu que c’était justement parce que la numérisation n’était pas toujours optimale que certains avaient tendance à considérer le vinyle comme supérieur…







Le problème est justement le ressenti à l’oreille, ou plutôt le couple oreillle/cerveau. Quand tu lis les retours totalement subjectifs de compraisons 1624 bits, ou même toute compairason d’écoute “audiophile”, t’as l’impression que ces personnes ont de véritables instruments de mesures fiables et pas du tout influençables à la place de leur système auditif. Alors qu’il suffit d’un coup de fatigue, ou d’être de bonne humeur un jour et de mauvaise le lendemain, et faire une même écoute avec un ressenti complètement différent.



Concernant le 24bits, il est vrai qu’il apporte un surplus de précision dynamique par rapport au 16bits (forcément, 16 777 215 de niveaux différents contre 65 536). MAIS, dans les faits, les erreurs induites par la quantification du signal analogique sous forme numérique produisent un bruit de fond, bruit d’un niveau sonore de 96dB en dessous du niveau maximal en 16bits, et de 144dB dans le cas du 24bits. A 96db autant dire que c’est vraiment que dalle et rien qu’on ne puisse entendre. 



Une image qui pourra aider à comprendre (en vert le signal original, en jaune le signal quantifié, et en rouge le bruit produit cette quantification):



sat_011.png” target=”_blank” rel=“nofollow”>">sat_011.png " target="_blank">https://wiki.xiph.org/File<img data-src=">sat_011.png&nbsp;

Pour reprendre le site qu’OlivierJ à indiqué, on y trouve deux excellentes vidéos qui expliquent, avec expériences à l’appui, le fonctionnement de la numérisation d’un signal audio :



&nbsphttps://www.xiph.org/video/&nbsp;

&nbsp;

Concernant le vinyle, Les Numériques ont fait un très bon article dessus :



http://www.lesnumeriques.com/audio/qualites-sonores-vinyle-pointes-sur-i-a3023.html&nbsp;


Le 03/02/2017 à 11h 24

Ou sinon une Shield TV ? Elle lit tous les formats jusqu’au HEVC 4k@60Fps, avec Kodi dessus, ou Plex, ou SPMC, ou autre, ça fait une centrale multimédia au top, fluide, que tu peux commander avec leur télécommande, et te passer d’une souris/clavier.



J’ai fait le switch l’année dernière d’un HTPC vers la Shield et je ne regrette pas du tout. Surtout qu’elle ne fait absolument pas de bruit et consomme très peu en comparaison d’un HTPC.

Le 06/01/2017 à 15h 53

186,26€ pour être exact avec ton mode de calcul&nbsp;<img data-src=" />&nbsp;(j’ai arrondi)



Tu n’achètes pas 2048Gio mais 2 000 000 000 000 d’octets, soit en fait 1862,65Gio.



Mais jaffalibre a également raison :

&nbsp;







jaffalibre a écrit :



Il faut savoir que 1To = 1 téra octet qui est une unité standardisée (1 000 000 000 000 octets).&nbsp;



pour l’histoire du 1024 tu parle surement du tébioctet (ou les fameux kibioctet =&gt; 1024 octet = 1 kibioctet ou 1kio )





Tout dépend du mode de calcul utilisé, et visiblement c’est l’unité standard en base 10 qui est prise en compte, donc on est bien à 200€.


Le 17/11/2016 à 14h 48

Euh… à moins que je me trompe, mais sur les MBP 13 pouces il n’a toujours été question que de processeurs 2 coeurs avec HyperThreading. Les 4 coeurs sont réservés aux modèles 15 pouces.

Le 09/11/2016 à 10h 04

Pour avoir essayé avec mon PC fixe et mon Mac en wifi, les temps de compilation sont quand même assez long ! Sans parler de l’émulateur qu’il faut faire passer par le réseau, ou qu’il faut brancher ton device de test sur le Mac (et non sur le PC). C’est quand même pas mal de contraintes à ce niveau là.



J’essaierai avec une VM windows sur le mac directement, pour avoir les deux sur le même hôte, mais bon au final, il faut un mac…

Le 04/11/2016 à 15h 11

Certes :), mais dans ce cas là, tu codes sur quel système et avec quels outils ?

Le 04/11/2016 à 10h 40







the true mask a écrit :



Et windows c’est pour les ringards et les prolos…

Ça va la caricature 2 minutes ?&nbsp;



Ce que tu dis est stupide de toute façon , vu la quantité de devs webs, python, IOS etc..qui utilisent MacOS





Concernant le dev iOS, tu n’as pas vraiment le choix puisque Apple impose d’utiliser Mac OS X avec XCode.

Pour le reste ce n’est pas tellement parce que c’est Mac OS, c’est surtout parce que beaucoup de ces technologies open source et de l’environnement de développement qui va autour sont conçus pour être utilisé en ligne de commande. Et à choisir entre un Linux et Mac OS, le choix est vite faite pour beaucoup d’entre eux.



Mais qu’on ne vienne pas me dire que mac os c’est incroyable, je bosse dessus depuis 3 ans, et bah je m’y suis toujours pas fait. Entre, les fenêtres qui se mettent en plein écran quand tu cliques sur le “+” et le finder… Pour le reste je suis tout aussi bien sous windows, mac os n’apporte rien de plus.


Le 05/10/2016 à 09h 58

J’aime beaucoup ses généralités, les devs c’est tous des feignants, ça copie/colle, blabla…

&nbsp;Il ne sait pas de quoi il parle visiblement.

&nbsp;

Un jeu qui sort avec trop bugs, c’est simplement qu’il n’y a pas eu assez de temps pour le terminer, rien de plus rien de moins. T’as beau avoir les plus talentueux dev de la terre, ce n’est pas de la magie et faire un jeu (ou n’importe quel logiciel/site web/app mobile/autre) de qualité c’est long.



Evidemment, ce n’est pas le monde de bisounours et il y a une notion financière et stratégique qui viennent se mêler à tout développement, simplement parce que ce n’est pas gratuit, que ça coûte cher et qu’à un moment donné, tu n’es plus en capacité d’investir pour prendre le temps nécessaire à la finalisation de ton projet. Et quand tu en arrives là, c’est qu’en temps que dirigeant/décisionnaire t’as eu les yeux plus gros que le ventre (parce que, oui, ce n’est pas le monde de bisounours et qu’il ne suffit d’imaginer quelque chose pour que ce soit fait dans la minute et de la bonne manière). &nbsp;La conséquence est que tu vas vouloir mettre un coup de pression sur tes équipes pour rentrer dans tes frais et limiter la casse, avec heures supps et compagnie, et l’aspect humain en prend un gros coup.



Je ne critique pas certains métiers en particulier, on a tous nos objectifs à atteindre, avec des directives qui viennent d’au-dessus (c’est plus là le problème à mon avis), mais encore faudrait-il que ces objectifs soient réalisables en temps et en heures normales (sans heures supp), avec les capacités de tes effectifs.



Perso je ne me plains pas, en tant que dev (pas dans le jeu), &nbsp;j’ai toujours eu la chance de travailler avec des métiers qui, s’ils ne comprennent pas souvent ce que je fais ni comment, comprennent en revanche qu’il y a des contraintes techniques en dehors desquels on ne peut pas sortir, et que pour un budget donné ça ne leur donne droit qu’à X jours de travail et l’équivalent en terme de dev, ni plus ni moins.

Le 05/10/2016 à 09h 04







Gigatoaster a écrit :



De toute façon les dévs sont connus pour leur faignantise : ils passent leurs journées à faire des copier/coller et arrive à pondre des jeux remplis de bugs. Bien sûr, c’est la faute dans ce cas au méchant commercial/marketeux/financier qui maltraite la pauvre créativité des dévs qui vivent chez les Bisounounours.



Bref je suis sûr que c’est en partie crai chez ce studio.





Il y a de l’ironie cachée que je n’arrive pas à percevoir, ou tu es sérieux dans tes propos ?


Le 08/08/2016 à 09h 58







Tidus93 a écrit :



Même après 1 an ? Mes pads 360 aussi au début ne faisaient aucun bruit, puis ce craquement est apparu après 1 an sur les gâchettes (alors que je m’en sers peu finalement).&nbsp;

C’est d’ailleurs pour ça que je veux prendre un pad Xbox One c’est que je n’en peux plus c’est trop désagréable. A chaque fois que j’appuie sur la gâchette, j’ai l’impression qu’elle va me rester dans les mains.





Oui la sensation est vraiment différente entre les deux types de gâchettes. On dirait que celles de la XOne ont du feutre ou un truc du genre, tu sens que la course ne s’arrête pas contre du plastique et ça ne fait pas de bruit du tout !! Et les moteurs de vibration dans les gâchettes (pour les jeux les supportant) c’est juste top !&nbsp;



La manette de la XOne n’est pas assemblée par vis comme l’était celle de la 360, c’est tout emboîté mais correctement, et il n’y a vraiment aucun jeu nulle part. Pour avoir les deux et jouer avec l’une ou l’autre régulièrement (XOne et PC), celle de la XOne est vraiment mieux foutue que l’autre.


Le 08/08/2016 à 09h 01







Slash a écrit :



Ah ? En quoi ça n’est pas une réponse à sa question ?

Le pad DS4 est bien plus ergonomique et avantageux que celui de la Xone, ne serait-ce que grâce au pavé tactile et la possibilité de gérer les profils et réglages fins… qui n’a jamais eu envie d’utiliser les gâchettes en tant que boutons sur son pad xbox PC ?





Le pavé tactile ce n’est pas un argument franchement, aucun jeu n’utilise ça et ce n’est même pas pratique. La gestion des profils OK peut-être pour ceux que ça intéresse.&nbsp;



Par contre pour le reste… la DS4 est juste un jouet dans la main, les plastiques craquent et elle est petite. Les sticks sont toujours aussi mou, et le gauche toujours aussi mal placé alors que c’est le mécanisme principal de direction dans quasiment tous les jeux actuels. Le bouton “options” qui est bien mal placé aussi, il ne tombe jamais sous le doigt. Les gâchettes sont aussi à la ramasse face à celle de la XOne.



Pour moi c’est manette Xbox One sans aucune hésitation.


Le 01/06/2016 à 13h 28

Les 150w ne sont qu’une limite. Pour info la GTX 1070 c’est un connecteur 8 broches, la RX480 un 6 broches, ce qui suppose une consommation moindre.

Le 01/06/2016 à 13h 23

Ca consomme plus, mais avant de compenser les 200$ d’écart par la différence consommation d’électricité de tes cartes graphiques, il te faudra beaucoup jouer. Mais beaucoup, du genre 10H par jour 77, et ce sera même pas assez.

Le 01/06/2016 à 08h 30







Katentu a écrit :



Plus proche de la 960 ou de la 970? Parceque il y a déjà de quoi faire à ce prix





de la 970, &nbsp;la 480X est assez similaire à la 390 qui est équivalente à une 970. Si l’on prend en compte les petites optimisations architecturales GCN4, on pourrait même plutôt être entre la 970 et 980. Pour 199$ c’est plutôt pas mal.



&nbsp;



XMalek a écrit :



eh beh, moi qui attendait un rival à la gtx 1070 on a même pas ça…



Je vais attendre les benchs, mais ca pue pour amd encore une fois.





Ils sortent la série des 480, ça laisse de la place&nbsp;pour sortir des 490 en face des 10701080, et de nouvelles Fury derrière.


Le 24/03/2015 à 15h 54

Ca arrive en permanence ? Tu dors sous des avions au décollage ? :)



Et 130db ça fait mal ;)

Le 24/03/2015 à 15h 41

exactement, et encore, pour entendre toute cette plage dynamique dans une pièce normale, il ne faut pas craindre des montées de volume sonore à plus de 110db (et avoir le matériel pour la restituer).

Le 24/03/2015 à 15h 36

Et un enregistrement de musique classique a une plage dynamique jusqu’à 60db, un morceau de pop actuel moins de 15 ou 10 db.&nbsp;

&nbsp;

De plus, une pièce calme comme un salon dans une maison a un bruit de fond de 30-40db. Pour entendre le son le plus faible sur un CD (-96Db), il faudrait donc avoir le matériel capable de monter à 130Db, et surtout que tu supportes un tel volume sonore (ce que aucun humain n’est capable).



Sauf que comme indiqué, aucun morceau de musique ne possède une tel plage dynamique. Le niveau le plus faible d’un morceau musique (et encore, c’est certains morceaux, et non une généralité) se situe donc déjà 30db au-dessus du bruit d’un CD.



Enfin, il faut aussi prendre en compte le matériel utilisé pour la restitution. Beaucoup d’amplis ou DAC ont un SNR compris entre 110Db et 90Db, ce n’est pas rare et on est effectivement au dessus des capacités d’un CD. En revanche, le 24 bits permet d’aller jusqu’à 144Db, mais là je ne connais personnellement aucun ampli/dac/matériel capable de reproduire une telle plage dynamique.

Le 24/03/2015 à 15h 26

+1000



La personne qui a écrit cette article a aussi fait deux vidéos expliquant comment fonctionne l’audio numérique, avec démonstration à l’oscilloscope à l’appui.



http://xiph.org/video/

Le 24/03/2015 à 15h 00

les mecs en studio bossent en 24 bits pas parce qu’ils entendent réellement une différence, mais bien pour des raisons techniques pour conserver une marge bien plus importante sur la dynamique (-144Db pour du 24bits contre -96Db pour du 16 bits).

&nbsp;Appliquer compresseur sur compresseur sur une piste audio avec un gain à chaque fois diminue la dynamique du son en augmentant le volume des sons faibles… et donc du bruit de fond, perceptible comme une sorte de souffle.

&nbsp;Mixer en 24 bits permet de conserver un niveau de bruit le plus faible possible et le plus éloigné de la plage dynamique audible.



Il existe bien une différence entre 24 bits et 16 bits, mais pas aussi incroyable que l’on puisse le penser, surtout pour du grand public qui n’ont ni l’oreille entraîné, ni le matériel électronique adéquat, ni l’environnement acoustique pour en profiter.

Le 07/10/2014 à 16h 02







Lafisk a écrit :



Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.



Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …





Ils parallélisent probablement le tout, mais le CPU n’est pas utilisé que pour l’IA, il faut en garder pour tout ce qu’il y a derrière (physique, audio, animations, etc.).

En plus de cela, chacun de ces systèmes sont plus ou moins dépendants, donc oui, l’affichage se fait en parallèle de la phase de calcul (le CPU et le GPU travaille bien en parallèle), mais malgré tout, ton moteur doit bien envoyé à un moment donné et régulièrement de quoi faire travailler le GPU, et cette fréquence là est dépendante des tâches réalisées pendant la boucle de calcul.

Le tout c’est d’avoir quelque chose de cohérent à envoyer à ton GPU, et cela se produit une fois que tout tes systèmes ont terminé leur calcul et sont en attente de la prochaine boucle.

Le problème est que si tu mets plus de temps pour atteindre cet état stable que ton GPU qui a déjà terminé de calculer de qu’on lui a donné à la boucle précédente, tu te retrouves avec une limitation CPU, ce qu’a l’air de décrire ici Ubisoft.


Le 29/09/2014 à 15h 01







calahan59 a écrit :



Hmm j’en doute vraiment. C’est très bien filmé, avec des techniques professionnelles.







Il y a de tout dans la communauté gopro, des skieurs du dimanche… et d’autres qui savent ce qu’ils font :)


Le 29/09/2014 à 14h 52







calahan59 a écrit :



Il faut leur reconnaitre une chose à Gopro , c’est qu’ils font de magnifiques vidéos promotionnelles.



Et je pense que c’est en grande partie ce qui explique leur succès. Beaucoup de sportifs du dimanche s’imaginent qu’ils vont filmer des choses aussi incroyables en faisant leur petite sortie du dimanche à vélo dans le bois d’à côté…



Il me semble avoir vu dans une émission qu’ils ne faisaient aucune vidéo et se servaient dans les vidéos faites par la communauté pour faire leur pub. Leur marketing ne leur coûte vraiment pas grand chose du coup.


Le 25/09/2014 à 11h 05







k43l a écrit :



Ah le voir comme ça, j’aurai un problème avec sa forme mais surtout aussi avec son clavier. <img data-src=" />

En plus sensitif mais quelle erreur ! Ils ont pas compris pourquoi microsoft ne communique plus sur son cover touch ?







Non, le clavier est bien physique avec de vraies touches, mais il a aussi une surface sensitive :)


Le 24/09/2014 à 09h 09







Grandasse a écrit :



Haha, donc le HTML5 fait le même boulot que Silverlight ?



Silverlight qui prend 200Mo sur un PC…







Haha Silverlight ça fait plus de 5 ans que ça lit des vidéos avec DRM, et quand un navigateur supporte Silverlight, t’es sûr que ça marche. Là on arrive en 2015 et ça commence à bien fonctionner à peu près de partout en HTML5. Il serait temps j’ai envie de dire !



Ca n’empêche pas que Silverlight devient obsolète bien évidemment :)


Le 01/09/2014 à 15h 17

36832 avec un Nexus 5 sous KitKat 4.4.4

Le 05/05/2014 à 08h 42







n1kod a écrit :



Je ne sais toujours pas quoi utiliser entre plex ou xbmc..



Quelqu’un a déjà lut un vrai comparatif des deux solutions?







Perso, je me sers des deux.



J’utilise XBMC en local sur mon TV, et Plex pour la lecture de mes vidéos quand je ne suis pas chez moi :).



Je préfère XBMC en local car il est beaucoup plus complet et à jour que Plex, bug beaucoup moins et (mais ça reste subjectif) je préfère le skin de XBMC que celui de Plex


Le 30/04/2014 à 10h 14

il s’est passé la même chose chez moi depuis une ou deux semaines. Je suis passé de 42Mb en down et 12Mb en up à 16 en down et 1Mb en up :( :( :(

Le 05/03/2014 à 10h 04







RinSa a écrit :



Bientôt des SSD pour remplacer la RAM ? <img data-src=" />



256Go de mémoire vive à 300€ c’est pas mal <img data-src=" />







Reste aux SSD de diviser leur latence par au moins 10000 et on y sera <img data-src=" />


Le 27/09/2013 à 11h 30







yeagermach1 a écrit :



C’est ironique.









Ah, je me disais aussi <img data-src=" />



Mais c’est sûr que ça attire les gens (et ils auraient torts de se priver d’une telle communication), ça reste un gage de qualité, et moi-même je me suis intéressé à ce jeu car c’est le studio qui a développé Halo qui s’en occupe.



Je ne connais pas Borderlands donc je ne peux pas comparer, mais ça m’a l’air intéressant.


Le 27/09/2013 à 11h 02







yeagermach1 a écrit :









  • destiny par les créateurs de Halo -&gt; c’est sur que cela va être un bide











    ???? Pourquoi dis-tu cela ?


Le 16/07/2013 à 14h 27



fatale de courant puisque celui délivré à l’iPhone 5 n’est que de 5V





Le problème n’est pas la tension mais l’intensité. Il n’est pas rare pour un chargeur de distribuer 1A en intensité, ce qui est mortel pour l’homme. Si les sécurités sur les disjoncteurs de maison sont à 30mA, ce n’est pas pour rien. Je prend aussi en exemple l’électricité statique : plusieurs milliers de volt transitent entre les deux corps concernés, mais avec une intensité très très faible, on sens une petite pique, mais on n’en meurt pas

Le 11/07/2013 à 16h 37







Dez a écrit :



… mais la bataille autour du megapixel comme argument de “qualité” des photos, c’est de la fumisterie. …







Je suis d’accord, mais dans ce cas là il ne s’agit pas uniquement prendre des photos de 41Mpx, il s’agit d’utiliser tous ces pixels pour constituer une image plus petite (3, 5 ou 8 Mpx) composée à partir de plusieurs pixels de la “full” (respectivement 14, 8 et 5 pixels). Sur le Pureview 808 déjà équipé d’une technologie similaire (pour ne pas dire identique), cela donnait des photos dignes de bon milieux de gamme compacts, on peut s’attendre à moins aussi bon


Le 11/07/2013 à 16h 18







Dez a écrit :



Mdr, 41 megapixel sur un smartphone.

Bonjour Marketing \o/











En même temps, tu parles d’un reflex qui dépasse allègrement les 1500€ nu et qui est dédié à la photographie et un smartphone (donc qui fait autre chose que de la photo) qui coûte 700€. Si la qualité est au rendez-vous comme sur le Pureview 808, il vient concurrencer directement les compacts milieu de gamme, pas les reflex, bien évidemment. Et avoir l’équivalent d’un bon compact dans sa poche, c’est assez intéressant


Le 11/07/2013 à 15h 47







Salocin a écrit :



Ce qu’il manque, c’est la résolution de sortie, parce que je doute qu’il s’agisse de 41 MP effectifs.







Si c’est comme sur le Pureview 808, tu peux choisir 8, 5 ou 3 Mpix, sachant qu’il utilisera respectivement 5, 8 et 14 pixels en entrée pour n’en former qu’un seul en sortie.



Mais tu peux bien évidemment garder la résolution originale pour traitement ultérieur dans un outil de retouches ou autre.


Le 27/06/2013 à 09h 35







al_bebert a écrit :



je ne sais pas, moi c’est mon corespondant de formation qui nous à envoyer un mail avec les infos.



je te conseille de te raprocher de ton admin msdn







OK cool ! je vais voir ça de mon côté ^^


Le 27/06/2013 à 08h 26







al_bebert a écrit :



petite question, j’ai une bonne promo grace au MSDNAA 200€ la Surface RT.



petite question que je me pose (j’ai pas eu le temps de chercher encore mais vous pourrez surement répondre à mes intérogrations)



Office est il intégrer sur la surface ?

est-il possible d’avoir une sortie HDMI/VGA/DP ?



Merci :)







Tu m’intéresses, j’ai aussi un compte msdnaa mais impossible de trouver la fameuse réduction sur la surface RT (à part en angleterre et australie). C’est bien dispo en France ?


Le 12/06/2013 à 14h 20







PonderStibbons a écrit :



Ouaip, peux tu fournir la source stp?

De mémoire, Microsoft a affirmé que la Xboite supportait le jeu en 4K alors que Sony a annoncé une limite au jeu en 1080p.



Le jeu en 4K je n’y crois pas du tout…peut-être un upscale d’un rendu 1080p.



Une question fondamentale : la PS4 va-t-elle être cette fois ci un vrai media player (mkv, dolby et DTS HD…) et pas une boite super puissante completement sous exploitée?







Je n’ai pas de sources, ce ne sont que des “suppositions” basées sur les specs de PCI et mon expérience avec le matos PC (ce denier est aujourd’hui très proche de ce que l’on retrouve dans les consoles). Je ne sais pas si la console supporte le jeu en 4k, mais la sortie HDMI le gère oui, idem pour la PS4.


Le 12/06/2013 à 14h 10







Shyfer a écrit :



Ah ? où as-tu lu ça ?







Au vue des specs techniques fournies par PCI, on peut facilement assimiler la carte graphique de la PS4 à un équivalent entre une Radeon 78507870 et celle de la X1 à un équivalent entre 77707850. Les consoles sont optimisées pour le jeu certes, cela n’empêche que la bande passante est ce qu’elle est et c’est le principal point bloquant pour proposer du 1080p (j’entend avec une bonne qualité graphique). Essaie de jouer en 1080p avec une 7770 tout en ayant une qualité graphique acceptable et un bon framerate, je pense que tu sera déçu.



Ca ne rendra pas le gameplay meilleur, mais apparement ils visent tous du 1080p/60Fps pour cette génération. La PS4 me semble largement mieux équipée pour y parvenir, c’est tout.





Le 12/06/2013 à 13h 56







Iridium a écrit :



La fréquence est nettement supérieure (500 “MHz” contre 2133), on ne connais pas les détails du bus et de toutes façon la GDDR3 est de la DDR2 modifiée. C’est pas parce que le nom est similaire que les performances sont les même.







La fréquence est bien supérieure oui, mais en terme de débit, la GDDR3 de la X360 c’est 22 Go/s, la X1 avec de la DDR3 à 2133MHz c’est 17Go/s en single channel, 34Go/s en dual channel. D’après PCI, c’est 68Go/s (donc une sorte de quad channel ou un bus plus large ?). Quoiqu’il en soit, c’est bien inférieur à ce qu’on trouve sur PS4 et c’est dommage


Le 12/06/2013 à 13h 46







yeagermach1 a écrit :



En quoi ? Sur le papier la PS3 est plus puissante que la X360. Cela a pas empeché MS d’en vendre plein.



La puissance est une chose mais au finish, les jeux multi tourneront pareil. Il y aura que les exclus qui utiliseront la pleine puissance et encore.







En quoi ? sur le papier la PS3 est plus puissante que la X360 OK, mais vraiment pas des masses… Dans le cas de la PS4 et de la X1, l’écart est juste énorme. Avec les specs indiquées dans le tableau PCI, une PS4 est capable de faire du 1080p, la X1 non (ou alors avec une qualité graphique très largement en baisse).

C’est comme si t’avais un PC avec une Radeon 7850 (la PS4) et une Radeon 7770(XOne), c’est 50% de perfs en plus pour la première (source)



Donc oui, la puissance ne fait pas le jeu, mais quand je vois le nombre de personnes autour de moi qui ne jure que par ça, je me dis que MS se tire une balle dans le pied


Le 12/06/2013 à 13h 35







morecube a écrit :



je vais attendre de voir quand la nouvelle sort et à quel tarif







Rho allez, avec au minimum 8 jeux (je dis “minimum” parce que j’en ai 3 de plus sur le disque de la console mais je ne sais pas s’ils restent en changeant de compte… si quelqu’un des infos là-dessus, ça m’intéresse !)


Le 12/06/2013 à 13h 28







lossendae a écrit :



Certains milieu tres bien informé on confirmé les specs, mais effectivement rien ne t’obliges à y croire <img data-src=" />



Je doute que l’on aie une confirmation d’MS “Oui l’architecture de notre console est moins optimisée et globalement moins puissante que celle de la PS4”.

On n’aura confirmation écrite que lors de la sortie des 2 consoles et je prend le parie que les informations données seront confirmées.







J’espère que tu te trompes <img data-src=" /> sinon, MS se tire clairement une balle dans le pied


Le 12/06/2013 à 13h 11







nucl3arsnake a écrit :



Donc on est d’accord que MS a pas confirmé cette config?







Ben, pour moi non ! J’ai déjà vu des documents de Sony sur la PS4, mais aucun de Microsoft, ce ne sont que des rumeurs (y compris la partie graphique d’ailleurs, tout le monde annonce 768SP mais ça aussi ça n’a jamais été confirmé). Le processeur non plus, mais on sait que c’est un AMD, ce sera très certainement le même que la PS4


Le 12/06/2013 à 13h 00







morecube a écrit :



Pas convaincu par les 2 systèmes… Mais une préférence pour les jeux X1, d’où mon vote. Je crois que je vais prendre une 360 en fait <img data-src=" />







Je te vends la mienne si tu veux :) avec le carton d’origine en plus <img data-src=" />


Le 12/06/2013 à 12h 57







nucl3arsnake a écrit :



Pourtant c’est sur le tableau PCI d’ou ma crainte =).

Puis la GDDR5 c’est plus vidéo, donc je pense que MS a fait comme pour les Xbox jusqu’ici (si je me trompe pas) avec processeur et GPU dédie







En fait, la X360 avait une mémoire unifiée entre le CPU et le GPU (comme la PS4). C’était de la GDDR3 à 22Go/s. La DDR3 tel qu’indiquée dans le tableau (à une fréquence de 2133MHz donc) c’est 34Go/s en dual Channel, soit environ 50% de plus que la X360, mais surtout très loin des 176Go/s de la PS4 ! Bref, attendons une confirmation de MS avant d’affirmer que untel est plus puissante que un tel


Le 12/06/2013 à 12h 39







Drepanocytose a écrit :



Euhhhh. On peut se faire des HTPC de gamer qui prennent autant de place qu’une One avec le même form factor, et brancher ca à un projo hein…..







les boitiers HTPC capable de prendre en charge une CG de gamer ne sont pas si petits que ça non plus (ça reste plus gros qu’une console)


Le 12/06/2013 à 12h 38







nucl3arsnake a écrit :



Ca oui mais j’avais peur qu”il ce base que sur le tabeau fourni pas PCI qui met del a GDDR5 contre de la DDR3 …







la DDR3 n’a jamais été confirmé par MS. Par ailleurs, ce choix me semble étrange, équipé une nouvelle console d’une mémoire aussi rapide que ce qu’avait la X360 quand en face t’as de la GDDR5…


Le 07/06/2013 à 12h 47







eXa a écrit :



Sur pcinpact:

Microsoft Security Essentials / Windows Defender

26,2%

<img data-src=" /><img data-src=" />

Vous etes au courant que c’est l’antivirus le plus mauvais du marché ?

http://www.av-test.org/en/tests/home-user/windows-7/novdec-2012/







Mouais, tu sais ce genre de comparatif….



Plus sérieusement, le plus mauvais anti virus du marché c’est l’utilisateur. J’utilise MSE depuis un bon bout de temps et aucun problèmes à signaler, mais je fais attention où je mets les pieds :)