Ce n’est pas plutôt parce que la “qualité studio” 24⁄192 requiert un matériel exigeant (et aussi sûrement une source “exigeante” qui n’est pas de la variété) que ne possèdent pas 95% des mortels ? Les études scientifiques sur ce sujet, on en lit régulièrement, mais le plus important reste le ressenti à l’oreille.
Quant aux enregistrements des années 80, j’avais lu que c’était justement parce que la numérisation n’était pas toujours optimale que certains avaient tendance à considérer le vinyle comme supérieur…
Le problème est justement le ressenti à l’oreille, ou plutôt le couple oreillle/cerveau. Quand tu lis les retours totalement subjectifs de compraisons 16⁄24 bits, ou même toute compairason d’écoute “audiophile”, t’as l’impression que ces personnes ont de véritables instruments de mesures fiables et pas du tout influençables à la place de leur système auditif. Alors qu’il suffit d’un coup de fatigue, ou d’être de bonne humeur un jour et de mauvaise le lendemain, et faire une même écoute avec un ressenti complètement différent.
Concernant le 24bits, il est vrai qu’il apporte un surplus de précision dynamique par rapport au 16bits (forcément, 16 777 215 de niveaux différents contre 65 536). MAIS, dans les faits, les erreurs induites par la quantification du signal analogique sous forme numérique produisent un bruit de fond, bruit d’un niveau sonore de 96dB en dessous du niveau maximal en 16bits, et de 144dB dans le cas du 24bits. A 96db autant dire que c’est vraiment que dalle et rien qu’on ne puisse entendre.
Une image qui pourra aider à comprendre (en vert le signal original, en jaune le signal quantifié, et en rouge le bruit produit cette quantification):
Pour reprendre le site qu’OlivierJ à indiqué, on y trouve deux excellentes vidéos qui expliquent, avec expériences à l’appui, le fonctionnement de la numérisation d’un signal audio :
Ou sinon une Shield TV ? Elle lit tous les formats jusqu’au HEVC 4k@60Fps, avec Kodi dessus, ou Plex, ou SPMC, ou autre, ça fait une centrale multimédia au top, fluide, que tu peux commander avec leur télécommande, et te passer d’une souris/clavier.
J’ai fait le switch l’année dernière d’un HTPC vers la Shield et je ne regrette pas du tout. Surtout qu’elle ne fait absolument pas de bruit et consomme très peu en comparaison d’un HTPC.
Euh… à moins que je me trompe, mais sur les MBP 13 pouces il n’a toujours été question que de processeurs 2 coeurs avec HyperThreading. Les 4 coeurs sont réservés aux modèles 15 pouces.
Pour avoir essayé avec mon PC fixe et mon Mac en wifi, les temps de compilation sont quand même assez long ! Sans parler de l’émulateur qu’il faut faire passer par le réseau, ou qu’il faut brancher ton device de test sur le Mac (et non sur le PC). C’est quand même pas mal de contraintes à ce niveau là.
J’essaierai avec une VM windows sur le mac directement, pour avoir les deux sur le même hôte, mais bon au final, il faut un mac…
Le
04/11/2016 à
15h
11
Certes :), mais dans ce cas là, tu codes sur quel système et avec quels outils ?
Le
04/11/2016 à
10h
40
the true mask a écrit :
Et windows c’est pour les ringards et les prolos…
Ça va la caricature 2 minutes ?
Ce que tu dis est stupide de toute façon , vu la quantité de devs webs, python, IOS etc..qui utilisent MacOS
Concernant le dev iOS, tu n’as pas vraiment le choix puisque Apple impose d’utiliser Mac OS X avec XCode.
Pour le reste ce n’est pas tellement parce que c’est Mac OS, c’est surtout parce que beaucoup de ces technologies open source et de l’environnement de développement qui va autour sont conçus pour être utilisé en ligne de commande. Et à choisir entre un Linux et Mac OS, le choix est vite faite pour beaucoup d’entre eux.
Mais qu’on ne vienne pas me dire que mac os c’est incroyable, je bosse dessus depuis 3 ans, et bah je m’y suis toujours pas fait. Entre, les fenêtres qui se mettent en plein écran quand tu cliques sur le “+” et le finder… Pour le reste je suis tout aussi bien sous windows, mac os n’apporte rien de plus.
J’aime beaucoup ses généralités, les devs c’est tous des feignants, ça copie/colle, blabla…
Il ne sait pas de quoi il parle visiblement.
Un jeu qui sort avec trop bugs, c’est simplement qu’il n’y a pas eu assez de temps pour le terminer, rien de plus rien de moins. T’as beau avoir les plus talentueux dev de la terre, ce n’est pas de la magie et faire un jeu (ou n’importe quel logiciel/site web/app mobile/autre) de qualité c’est long.
Evidemment, ce n’est pas le monde de bisounours et il y a une notion financière et stratégique qui viennent se mêler à tout développement, simplement parce que ce n’est pas gratuit, que ça coûte cher et qu’à un moment donné, tu n’es plus en capacité d’investir pour prendre le temps nécessaire à la finalisation de ton projet. Et quand tu en arrives là, c’est qu’en temps que dirigeant/décisionnaire t’as eu les yeux plus gros que le ventre (parce que, oui, ce n’est pas le monde de bisounours et qu’il ne suffit d’imaginer quelque chose pour que ce soit fait dans la minute et de la bonne manière). La conséquence est que tu vas vouloir mettre un coup de pression sur tes équipes pour rentrer dans tes frais et limiter la casse, avec heures supps et compagnie, et l’aspect humain en prend un gros coup.
Je ne critique pas certains métiers en particulier, on a tous nos objectifs à atteindre, avec des directives qui viennent d’au-dessus (c’est plus là le problème à mon avis), mais encore faudrait-il que ces objectifs soient réalisables en temps et en heures normales (sans heures supp), avec les capacités de tes effectifs.
Perso je ne me plains pas, en tant que dev (pas dans le jeu), j’ai toujours eu la chance de travailler avec des métiers qui, s’ils ne comprennent pas souvent ce que je fais ni comment, comprennent en revanche qu’il y a des contraintes techniques en dehors desquels on ne peut pas sortir, et que pour un budget donné ça ne leur donne droit qu’à X jours de travail et l’équivalent en terme de dev, ni plus ni moins.
Le
05/10/2016 à
09h
04
Gigatoaster a écrit :
De toute façon les dévs sont connus pour leur faignantise : ils passent leurs journées à faire des copier/coller et arrive à pondre des jeux remplis de bugs. Bien sûr, c’est la faute dans ce cas au méchant commercial/marketeux/financier qui maltraite la pauvre créativité des dévs qui vivent chez les Bisounounours.
Bref je suis sûr que c’est en partie crai chez ce studio.
Il y a de l’ironie cachée que je n’arrive pas à percevoir, ou tu es sérieux dans tes propos ?
Même après 1 an ? Mes pads 360 aussi au début ne faisaient aucun bruit, puis ce craquement est apparu après 1 an sur les gâchettes (alors que je m’en sers peu finalement).
C’est d’ailleurs pour ça que je veux prendre un pad Xbox One c’est que je n’en peux plus c’est trop désagréable. A chaque fois que j’appuie sur la gâchette, j’ai l’impression qu’elle va me rester dans les mains.
Oui la sensation est vraiment différente entre les deux types de gâchettes. On dirait que celles de la XOne ont du feutre ou un truc du genre, tu sens que la course ne s’arrête pas contre du plastique et ça ne fait pas de bruit du tout !! Et les moteurs de vibration dans les gâchettes (pour les jeux les supportant) c’est juste top !
La manette de la XOne n’est pas assemblée par vis comme l’était celle de la 360, c’est tout emboîté mais correctement, et il n’y a vraiment aucun jeu nulle part. Pour avoir les deux et jouer avec l’une ou l’autre régulièrement (XOne et PC), celle de la XOne est vraiment mieux foutue que l’autre.
Le
08/08/2016 à
09h
01
Slash a écrit :
Ah ? En quoi ça n’est pas une réponse à sa question ?
Le pad DS4 est bien plus ergonomique et avantageux que celui de la Xone, ne serait-ce que grâce au pavé tactile et la possibilité de gérer les profils et réglages fins… qui n’a jamais eu envie d’utiliser les gâchettes en tant que boutons sur son pad xbox PC ?
Le pavé tactile ce n’est pas un argument franchement, aucun jeu n’utilise ça et ce n’est même pas pratique. La gestion des profils OK peut-être pour ceux que ça intéresse.
Par contre pour le reste… la DS4 est juste un jouet dans la main, les plastiques craquent et elle est petite. Les sticks sont toujours aussi mou, et le gauche toujours aussi mal placé alors que c’est le mécanisme principal de direction dans quasiment tous les jeux actuels. Le bouton “options” qui est bien mal placé aussi, il ne tombe jamais sous le doigt. Les gâchettes sont aussi à la ramasse face à celle de la XOne.
Pour moi c’est manette Xbox One sans aucune hésitation.
Les 150w ne sont qu’une limite. Pour info la GTX 1070 c’est un connecteur 8 broches, la RX480 un 6 broches, ce qui suppose une consommation moindre.
Le
01/06/2016 à
13h
23
Ca consomme plus, mais avant de compenser les 200$ d’écart par la différence consommation d’électricité de tes cartes graphiques, il te faudra beaucoup jouer. Mais beaucoup, du genre 10H par jour 7⁄7, et ce sera même pas assez.
Le
01/06/2016 à
08h
30
Katentu a écrit :
Plus proche de la 960 ou de la 970? Parceque il y a déjà de quoi faire à ce prix
de la 970, la 480X est assez similaire à la 390 qui est équivalente à une 970. Si l’on prend en compte les petites optimisations architecturales GCN4, on pourrait même plutôt être entre la 970 et 980. Pour 199$ c’est plutôt pas mal.
XMalek a écrit :
eh beh, moi qui attendait un rival à la gtx 1070 on a même pas ça…
Je vais attendre les benchs, mais ca pue pour amd encore une fois.
Ils sortent la série des 480, ça laisse de la place pour sortir des 490 en face des 1070⁄1080, et de nouvelles Fury derrière.
Ca arrive en permanence ? Tu dors sous des avions au décollage ? :)
Et 130db ça fait mal ;)
Le
24/03/2015 à
15h
41
exactement, et encore, pour entendre toute cette plage dynamique dans une pièce normale, il ne faut pas craindre des montées de volume sonore à plus de 110db (et avoir le matériel pour la restituer).
Le
24/03/2015 à
15h
36
Et un enregistrement de musique classique a une plage dynamique jusqu’à 60db, un morceau de pop actuel moins de 15 ou 10 db.
De plus, une pièce calme comme un salon dans une maison a un bruit de fond de 30-40db. Pour entendre le son le plus faible sur un CD (-96Db), il faudrait donc avoir le matériel capable de monter à 130Db, et surtout que tu supportes un tel volume sonore (ce que aucun humain n’est capable).
Sauf que comme indiqué, aucun morceau de musique ne possède une tel plage dynamique. Le niveau le plus faible d’un morceau musique (et encore, c’est certains morceaux, et non une généralité) se situe donc déjà 30db au-dessus du bruit d’un CD.
Enfin, il faut aussi prendre en compte le matériel utilisé pour la restitution. Beaucoup d’amplis ou DAC ont un SNR compris entre 110Db et 90Db, ce n’est pas rare et on est effectivement au dessus des capacités d’un CD. En revanche, le 24 bits permet d’aller jusqu’à 144Db, mais là je ne connais personnellement aucun ampli/dac/matériel capable de reproduire une telle plage dynamique.
Le
24/03/2015 à
15h
26
+1000
La personne qui a écrit cette article a aussi fait deux vidéos expliquant comment fonctionne l’audio numérique, avec démonstration à l’oscilloscope à l’appui.
les mecs en studio bossent en 24 bits pas parce qu’ils entendent réellement une différence, mais bien pour des raisons techniques pour conserver une marge bien plus importante sur la dynamique (-144Db pour du 24bits contre -96Db pour du 16 bits).
Appliquer compresseur sur compresseur sur une piste audio avec un gain à chaque fois diminue la dynamique du son en augmentant le volume des sons faibles… et donc du bruit de fond, perceptible comme une sorte de souffle.
Mixer en 24 bits permet de conserver un niveau de bruit le plus faible possible et le plus éloigné de la plage dynamique audible.
Il existe bien une différence entre 24 bits et 16 bits, mais pas aussi incroyable que l’on puisse le penser, surtout pour du grand public qui n’ont ni l’oreille entraîné, ni le matériel électronique adéquat, ni l’environnement acoustique pour en profiter.
Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.
Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …
Ils parallélisent probablement le tout, mais le CPU n’est pas utilisé que pour l’IA, il faut en garder pour tout ce qu’il y a derrière (physique, audio, animations, etc.).
En plus de cela, chacun de ces systèmes sont plus ou moins dépendants, donc oui, l’affichage se fait en parallèle de la phase de calcul (le CPU et le GPU travaille bien en parallèle), mais malgré tout, ton moteur doit bien envoyé à un moment donné et régulièrement de quoi faire travailler le GPU, et cette fréquence là est dépendante des tâches réalisées pendant la boucle de calcul.
Le tout c’est d’avoir quelque chose de cohérent à envoyer à ton GPU, et cela se produit une fois que tout tes systèmes ont terminé leur calcul et sont en attente de la prochaine boucle.
Le problème est que si tu mets plus de temps pour atteindre cet état stable que ton GPU qui a déjà terminé de calculer de qu’on lui a donné à la boucle précédente, tu te retrouves avec une limitation CPU, ce qu’a l’air de décrire ici Ubisoft.
Hmm j’en doute vraiment. C’est très bien filmé, avec des techniques professionnelles.
Il y a de tout dans la communauté gopro, des skieurs du dimanche… et d’autres qui savent ce qu’ils font :)
Le
29/09/2014 à
14h
52
calahan59 a écrit :
Il faut leur reconnaitre une chose à Gopro , c’est qu’ils font de magnifiques vidéos promotionnelles.
Et je pense que c’est en grande partie ce qui explique leur succès. Beaucoup de sportifs du dimanche s’imaginent qu’ils vont filmer des choses aussi incroyables en faisant leur petite sortie du dimanche à vélo dans le bois d’à côté…
Il me semble avoir vu dans une émission qu’ils ne faisaient aucune vidéo et se servaient dans les vidéos faites par la communauté pour faire leur pub. Leur marketing ne leur coûte vraiment pas grand chose du coup.
Haha, donc le HTML5 fait le même boulot que Silverlight ?
Silverlight qui prend 200Mo sur un PC…
Haha Silverlight ça fait plus de 5 ans que ça lit des vidéos avec DRM, et quand un navigateur supporte Silverlight, t’es sûr que ça marche. Là on arrive en 2015 et ça commence à bien fonctionner à peu près de partout en HTML5. Il serait temps j’ai envie de dire !
Ca n’empêche pas que Silverlight devient obsolète bien évidemment :)
Je ne sais toujours pas quoi utiliser entre plex ou xbmc..
Quelqu’un a déjà lut un vrai comparatif des deux solutions?
Perso, je me sers des deux.
J’utilise XBMC en local sur mon TV, et Plex pour la lecture de mes vidéos quand je ne suis pas chez moi :).
Je préfère XBMC en local car il est beaucoup plus complet et à jour que Plex, bug beaucoup moins et (mais ça reste subjectif) je préfère le skin de XBMC que celui de Plex
Mais c’est sûr que ça attire les gens (et ils auraient torts de se priver d’une telle communication), ça reste un gage de qualité, et moi-même je me suis intéressé à ce jeu car c’est le studio qui a développé Halo qui s’en occupe.
Je ne connais pas Borderlands donc je ne peux pas comparer, mais ça m’a l’air intéressant.
Le
27/09/2013 à
11h
02
yeagermach1 a écrit :
…
destiny par les créateurs de Halo -> c’est sur que cela va être un bide
fatale de courant puisque celui délivré à l’iPhone 5 n’est que de 5V
Le problème n’est pas la tension mais l’intensité. Il n’est pas rare pour un chargeur de distribuer 1A en intensité, ce qui est mortel pour l’homme. Si les sécurités sur les disjoncteurs de maison sont à 30mA, ce n’est pas pour rien. Je prend aussi en exemple l’électricité statique : plusieurs milliers de volt transitent entre les deux corps concernés, mais avec une intensité très très faible, on sens une petite pique, mais on n’en meurt pas
… mais la bataille autour du megapixel comme argument de “qualité” des photos, c’est de la fumisterie. …
Je suis d’accord, mais dans ce cas là il ne s’agit pas uniquement prendre des photos de 41Mpx, il s’agit d’utiliser tous ces pixels pour constituer une image plus petite (3, 5 ou 8 Mpx) composée à partir de plusieurs pixels de la “full” (respectivement 14, 8 et 5 pixels). Sur le Pureview 808 déjà équipé d’une technologie similaire (pour ne pas dire identique), cela donnait des photos dignes de bon milieux de gamme compacts, on peut s’attendre à moins aussi bon
Le
11/07/2013 à
16h
18
Dez a écrit :
Mdr, 41 megapixel sur un smartphone.
Bonjour Marketing \o/
…
En même temps, tu parles d’un reflex qui dépasse allègrement les 1500€ nu et qui est dédié à la photographie et un smartphone (donc qui fait autre chose que de la photo) qui coûte 700€. Si la qualité est au rendez-vous comme sur le Pureview 808, il vient concurrencer directement les compacts milieu de gamme, pas les reflex, bien évidemment. Et avoir l’équivalent d’un bon compact dans sa poche, c’est assez intéressant
Le
11/07/2013 à
15h
47
Salocin a écrit :
Ce qu’il manque, c’est la résolution de sortie, parce que je doute qu’il s’agisse de 41 MP effectifs.
Si c’est comme sur le Pureview 808, tu peux choisir 8, 5 ou 3 Mpix, sachant qu’il utilisera respectivement 5, 8 et 14 pixels en entrée pour n’en former qu’un seul en sortie.
Mais tu peux bien évidemment garder la résolution originale pour traitement ultérieur dans un outil de retouches ou autre.
je ne sais pas, moi c’est mon corespondant de formation qui nous à envoyer un mail avec les infos.
je te conseille de te raprocher de ton admin msdn
OK cool ! je vais voir ça de mon côté ^^
Le
27/06/2013 à
08h
26
al_bebert a écrit :
petite question, j’ai une bonne promo grace au MSDNAA 200€ la Surface RT.
petite question que je me pose (j’ai pas eu le temps de chercher encore mais vous pourrez surement répondre à mes intérogrations)
Office est il intégrer sur la surface ?
est-il possible d’avoir une sortie HDMI/VGA/DP ?
Merci :)
Tu m’intéresses, j’ai aussi un compte msdnaa mais impossible de trouver la fameuse réduction sur la surface RT (à part en angleterre et australie). C’est bien dispo en France ?
De mémoire, Microsoft a affirmé que la Xboite supportait le jeu en 4K alors que Sony a annoncé une limite au jeu en 1080p.
Le jeu en 4K je n’y crois pas du tout…peut-être un upscale d’un rendu 1080p.
Une question fondamentale : la PS4 va-t-elle être cette fois ci un vrai media player (mkv, dolby et DTS HD…) et pas une boite super puissante completement sous exploitée?
Je n’ai pas de sources, ce ne sont que des “suppositions” basées sur les specs de PCI et mon expérience avec le matos PC (ce denier est aujourd’hui très proche de ce que l’on retrouve dans les consoles). Je ne sais pas si la console supporte le jeu en 4k, mais la sortie HDMI le gère oui, idem pour la PS4.
Le
12/06/2013 à
14h
10
Shyfer a écrit :
Ah ? où as-tu lu ça ?
Au vue des specs techniques fournies par PCI, on peut facilement assimiler la carte graphique de la PS4 à un équivalent entre une Radeon 7850⁄7870 et celle de la X1 à un équivalent entre 7770⁄7850. Les consoles sont optimisées pour le jeu certes, cela n’empêche que la bande passante est ce qu’elle est et c’est le principal point bloquant pour proposer du 1080p (j’entend avec une bonne qualité graphique). Essaie de jouer en 1080p avec une 7770 tout en ayant une qualité graphique acceptable et un bon framerate, je pense que tu sera déçu.
Ca ne rendra pas le gameplay meilleur, mais apparement ils visent tous du 1080p/60Fps pour cette génération. La PS4 me semble largement mieux équipée pour y parvenir, c’est tout.
Le
12/06/2013 à
13h
56
Iridium a écrit :
La fréquence est nettement supérieure (500 “MHz” contre 2133), on ne connais pas les détails du bus et de toutes façon la GDDR3 est de la DDR2 modifiée. C’est pas parce que le nom est similaire que les performances sont les même.
La fréquence est bien supérieure oui, mais en terme de débit, la GDDR3 de la X360 c’est 22 Go/s, la X1 avec de la DDR3 à 2133MHz c’est 17Go/s en single channel, 34Go/s en dual channel. D’après PCI, c’est 68Go/s (donc une sorte de quad channel ou un bus plus large ?). Quoiqu’il en soit, c’est bien inférieur à ce qu’on trouve sur PS4 et c’est dommage
Le
12/06/2013 à
13h
46
yeagermach1 a écrit :
En quoi ? Sur le papier la PS3 est plus puissante que la X360. Cela a pas empeché MS d’en vendre plein.
La puissance est une chose mais au finish, les jeux multi tourneront pareil. Il y aura que les exclus qui utiliseront la pleine puissance et encore.
En quoi ? sur le papier la PS3 est plus puissante que la X360 OK, mais vraiment pas des masses… Dans le cas de la PS4 et de la X1, l’écart est juste énorme. Avec les specs indiquées dans le tableau PCI, une PS4 est capable de faire du 1080p, la X1 non (ou alors avec une qualité graphique très largement en baisse).
C’est comme si t’avais un PC avec une Radeon 7850 (la PS4) et une Radeon 7770(XOne), c’est 50% de perfs en plus pour la première (source)
Donc oui, la puissance ne fait pas le jeu, mais quand je vois le nombre de personnes autour de moi qui ne jure que par ça, je me dis que MS se tire une balle dans le pied
Le
12/06/2013 à
13h
35
morecube a écrit :
je vais attendre de voir quand la nouvelle sort et à quel tarif
Rho allez, avec au minimum 8 jeux (je dis “minimum” parce que j’en ai 3 de plus sur le disque de la console mais je ne sais pas s’ils restent en changeant de compte… si quelqu’un des infos là-dessus, ça m’intéresse !)
Le
12/06/2013 à
13h
28
lossendae a écrit :
Certains milieu tres bien informé on confirmé les specs, mais effectivement rien ne t’obliges à y croire " />
Je doute que l’on aie une confirmation d’MS “Oui l’architecture de notre console est moins optimisée et globalement moins puissante que celle de la PS4”.
On n’aura confirmation écrite que lors de la sortie des 2 consoles et je prend le parie que les informations données seront confirmées.
J’espère que tu te trompes " /> sinon, MS se tire clairement une balle dans le pied
Le
12/06/2013 à
13h
11
nucl3arsnake a écrit :
Donc on est d’accord que MS a pas confirmé cette config?
Ben, pour moi non ! J’ai déjà vu des documents de Sony sur la PS4, mais aucun de Microsoft, ce ne sont que des rumeurs (y compris la partie graphique d’ailleurs, tout le monde annonce 768SP mais ça aussi ça n’a jamais été confirmé). Le processeur non plus, mais on sait que c’est un AMD, ce sera très certainement le même que la PS4
Le
12/06/2013 à
13h
00
morecube a écrit :
Pas convaincu par les 2 systèmes… Mais une préférence pour les jeux X1, d’où mon vote. Je crois que je vais prendre une 360 en fait " />
Je te vends la mienne si tu veux :) avec le carton d’origine en plus " />
Le
12/06/2013 à
12h
57
nucl3arsnake a écrit :
Pourtant c’est sur le tableau PCI d’ou ma crainte =).
Puis la GDDR5 c’est plus vidéo, donc je pense que MS a fait comme pour les Xbox jusqu’ici (si je me trompe pas) avec processeur et GPU dédie
En fait, la X360 avait une mémoire unifiée entre le CPU et le GPU (comme la PS4). C’était de la GDDR3 à 22Go/s. La DDR3 tel qu’indiquée dans le tableau (à une fréquence de 2133MHz donc) c’est 34Go/s en dual Channel, soit environ 50% de plus que la X360, mais surtout très loin des 176Go/s de la PS4 ! Bref, attendons une confirmation de MS avant d’affirmer que untel est plus puissante que un tel
Le
12/06/2013 à
12h
39
Drepanocytose a écrit :
Euhhhh. On peut se faire des HTPC de gamer qui prennent autant de place qu’une One avec le même form factor, et brancher ca à un projo hein…..
les boitiers HTPC capable de prendre en charge une CG de gamer ne sont pas si petits que ça non plus (ça reste plus gros qu’une console)
Le
12/06/2013 à
12h
38
nucl3arsnake a écrit :
Ca oui mais j’avais peur qu”il ce base que sur le tabeau fourni pas PCI qui met del a GDDR5 contre de la DDR3 …
la DDR3 n’a jamais été confirmé par MS. Par ailleurs, ce choix me semble étrange, équipé une nouvelle console d’une mémoire aussi rapide que ce qu’avait la X360 quand en face t’as de la GDDR5…
Plus sérieusement, le plus mauvais anti virus du marché c’est l’utilisateur. J’utilise MSE depuis un bon bout de temps et aucun problèmes à signaler, mais je fais attention où je mets les pieds :)
113 commentaires
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 14/07/2018 à 06h 27
Ma source principale d’info sur le numérique depuis plus de 10 ans , tout simplement !
L’arrivée du site dédié au hardware va bientôt vous faire un abonné de plus !
Spotify teste une offre « haute fidélité », entre 15 et 20 dollars par mois
02/03/2017
Le 02/03/2017 à 11h 14
Kodi 17 disponible en version finale, des nightlies pour Kodi 18 (Leia)
03/02/2017
Le 03/02/2017 à 11h 24
Ou sinon une Shield TV ? Elle lit tous les formats jusqu’au HEVC 4k@60Fps, avec Kodi dessus, ou Plex, ou SPMC, ou autre, ça fait une centrale multimédia au top, fluide, que tu peux commander avec leur télécommande, et te passer d’une souris/clavier.
J’ai fait le switch l’année dernière d’un HTPC vers la Shield et je ne regrette pas du tout. Surtout qu’elle ne fait absolument pas de bruit et consomme très peu en comparaison d’un HTPC.
200 euros de redevance copie privée sur les futures clés USB de 2 To
06/01/2017
Le 06/01/2017 à 15h 53
186,26€ pour être exact avec ton mode de calcul " /> (j’ai arrondi)
Tu n’achètes pas 2048Gio mais 2 000 000 000 000 d’octets, soit en fait 1862,65Gio.
Mais jaffalibre a également raison :
iFixit démonte le MacBook Pro de 13,3″ avec Touch Bar : SSD soudé, note finale 1/10
17/11/2016
Le 17/11/2016 à 14h 48
Euh… à moins que je me trompe, mais sur les MBP 13 pouces il n’a toujours été question que de processeurs 2 coeurs avec HyperThreading. Les 4 coeurs sont réservés aux modèles 15 pouces.
Apple : Phil Schiller défend les choix faits sur le nouveau MacBook Pro
04/11/2016
Le 09/11/2016 à 10h 04
Pour avoir essayé avec mon PC fixe et mon Mac en wifi, les temps de compilation sont quand même assez long ! Sans parler de l’émulateur qu’il faut faire passer par le réseau, ou qu’il faut brancher ton device de test sur le Mac (et non sur le PC). C’est quand même pas mal de contraintes à ce niveau là.
J’essaierai avec une VM windows sur le mac directement, pour avoir les deux sur le même hôte, mais bon au final, il faut un mac…
Le 04/11/2016 à 15h 11
Certes :), mais dans ce cas là, tu codes sur quel système et avec quels outils ?
Le 04/11/2016 à 10h 40
Kerbal Space Program perd neuf cadres de son équipe de développement
05/10/2016
Le 05/10/2016 à 09h 58
J’aime beaucoup ses généralités, les devs c’est tous des feignants, ça copie/colle, blabla…
Il ne sait pas de quoi il parle visiblement.
Un jeu qui sort avec trop bugs, c’est simplement qu’il n’y a pas eu assez de temps pour le terminer, rien de plus rien de moins. T’as beau avoir les plus talentueux dev de la terre, ce n’est pas de la magie et faire un jeu (ou n’importe quel logiciel/site web/app mobile/autre) de qualité c’est long.
Evidemment, ce n’est pas le monde de bisounours et il y a une notion financière et stratégique qui viennent se mêler à tout développement, simplement parce que ce n’est pas gratuit, que ça coûte cher et qu’à un moment donné, tu n’es plus en capacité d’investir pour prendre le temps nécessaire à la finalisation de ton projet. Et quand tu en arrives là, c’est qu’en temps que dirigeant/décisionnaire t’as eu les yeux plus gros que le ventre (parce que, oui, ce n’est pas le monde de bisounours et qu’il ne suffit d’imaginer quelque chose pour que ce soit fait dans la minute et de la bonne manière). La conséquence est que tu vas vouloir mettre un coup de pression sur tes équipes pour rentrer dans tes frais et limiter la casse, avec heures supps et compagnie, et l’aspect humain en prend un gros coup.
Je ne critique pas certains métiers en particulier, on a tous nos objectifs à atteindre, avec des directives qui viennent d’au-dessus (c’est plus là le problème à mon avis), mais encore faudrait-il que ces objectifs soient réalisables en temps et en heures normales (sans heures supp), avec les capacités de tes effectifs.
Perso je ne me plains pas, en tant que dev (pas dans le jeu), j’ai toujours eu la chance de travailler avec des métiers qui, s’ils ne comprennent pas souvent ce que je fais ni comment, comprennent en revanche qu’il y a des contraintes techniques en dehors desquels on ne peut pas sortir, et que pour un budget donné ça ne leur donne droit qu’à X jours de travail et l’équivalent en terme de dev, ni plus ni moins.
Le 05/10/2016 à 09h 04
La nouvelle manette Xbox One souffre sous Windows 10
08/08/2016
Le 08/08/2016 à 09h 58
Le 08/08/2016 à 09h 01
AMD annonce sa Radeon RX480 à 199 $, se moque de NVIDIA et montre une puce Zen AM4
01/06/2016
Le 01/06/2016 à 13h 28
Les 150w ne sont qu’une limite. Pour info la GTX 1070 c’est un connecteur 8 broches, la RX480 un 6 broches, ce qui suppose une consommation moindre.
Le 01/06/2016 à 13h 23
Ca consomme plus, mais avant de compenser les 200$ d’écart par la différence consommation d’électricité de tes cartes graphiques, il te faudra beaucoup jouer. Mais beaucoup, du genre 10H par jour 7⁄7, et ce sera même pas assez.
Le 01/06/2016 à 08h 30
Haute Résolution Audio : le son de la discorde entre Qobuz et Deezer
24/03/2015
Le 24/03/2015 à 15h 54
Ca arrive en permanence ? Tu dors sous des avions au décollage ? :)
Et 130db ça fait mal ;)
Le 24/03/2015 à 15h 41
exactement, et encore, pour entendre toute cette plage dynamique dans une pièce normale, il ne faut pas craindre des montées de volume sonore à plus de 110db (et avoir le matériel pour la restituer).
Le 24/03/2015 à 15h 36
Et un enregistrement de musique classique a une plage dynamique jusqu’à 60db, un morceau de pop actuel moins de 15 ou 10 db.
De plus, une pièce calme comme un salon dans une maison a un bruit de fond de 30-40db. Pour entendre le son le plus faible sur un CD (-96Db), il faudrait donc avoir le matériel capable de monter à 130Db, et surtout que tu supportes un tel volume sonore (ce que aucun humain n’est capable).
Sauf que comme indiqué, aucun morceau de musique ne possède une tel plage dynamique. Le niveau le plus faible d’un morceau musique (et encore, c’est certains morceaux, et non une généralité) se situe donc déjà 30db au-dessus du bruit d’un CD.
Enfin, il faut aussi prendre en compte le matériel utilisé pour la restitution. Beaucoup d’amplis ou DAC ont un SNR compris entre 110Db et 90Db, ce n’est pas rare et on est effectivement au dessus des capacités d’un CD. En revanche, le 24 bits permet d’aller jusqu’à 144Db, mais là je ne connais personnellement aucun ampli/dac/matériel capable de reproduire une telle plage dynamique.
Le 24/03/2015 à 15h 26
+1000
La personne qui a écrit cette article a aussi fait deux vidéos expliquant comment fonctionne l’audio numérique, avec démonstration à l’oscilloscope à l’appui.
http://xiph.org/video/
Le 24/03/2015 à 15h 00
les mecs en studio bossent en 24 bits pas parce qu’ils entendent réellement une différence, mais bien pour des raisons techniques pour conserver une marge bien plus importante sur la dynamique (-144Db pour du 24bits contre -96Db pour du 16 bits).
Appliquer compresseur sur compresseur sur une piste audio avec un gain à chaque fois diminue la dynamique du son en augmentant le volume des sons faibles… et donc du bruit de fond, perceptible comme une sorte de souffle.
Mixer en 24 bits permet de conserver un niveau de bruit le plus faible possible et le plus éloigné de la plage dynamique audible.
Il existe bien une différence entre 24 bits et 16 bits, mais pas aussi incroyable que l’on puisse le penser, surtout pour du grand public qui n’ont ni l’oreille entraîné, ni le matériel électronique adéquat, ni l’environnement acoustique pour en profiter.
La définition d’Assassin’s Creed Unity sur PS4 et Xbox One fait débat
07/10/2014
Le 07/10/2014 à 16h 02
GoPro dévoile ses Hero4 Black et Silver : 4k à 30 fps, Bluetooth et écran tactile
29/09/2014
Le 29/09/2014 à 15h 01
Le 29/09/2014 à 14h 52
BlackBerry Passport : écran carré et clavier physique sensitif pour 649 €
25/09/2014
Le 25/09/2014 à 11h 05
Lecteur HTML5 et EME : OCS prévoit de se passer de Silverlight début 2015
24/09/2014
Le 24/09/2014 à 09h 09
Le benchmark AnTuTu passe en version 5.0 et revoit ses scores
01/09/2014
Le 01/09/2014 à 15h 17
36832 avec un Nexus 5 sous KitKat 4.4.4
XBMC 13 (Gotham) disponible en version finale
05/05/2014
Le 05/05/2014 à 08h 42
Chez Free, le VDSL2 ne tient parfois qu’à un fil
30/04/2014
Le 30/04/2014 à 10h 14
il s’est passé la même chose chez moi depuis une ou deux semaines. Je suis passé de 42Mb en down et 12Mb en up à 16 en down et 1Mb en up :( :( :(
OCZ Z-Drive 4500 : un SSD PCI Express capable de monter jusqu’à 2 900 Mo/s
05/03/2014
Le 05/03/2014 à 10h 04
Activision estime prendre beaucoup de risques avec son catalogue
27/09/2013
Le 27/09/2013 à 11h 30
Le 27/09/2013 à 11h 02
L’iPhone 5 pointé du doigt dans une mort suspecte par électrocution
16/07/2013
Le 16/07/2013 à 14h 27
fatale de courant puisque celui délivré à l’iPhone 5 n’est que de 5V
Le problème n’est pas la tension mais l’intensité. Il n’est pas rare pour un chargeur de distribuer 1A en intensité, ce qui est mortel pour l’homme. Si les sécurités sur les disjoncteurs de maison sont à 30mA, ce n’est pas pour rien. Je prend aussi en exemple l’électricité statique : plusieurs milliers de volt transitent entre les deux corps concernés, mais avec une intensité très très faible, on sens une petite pique, mais on n’en meurt pas
Lumia 1020 : Nokia dévoile son smartphone avec capteur stabilisé de 41 Mpx
11/07/2013
Le 11/07/2013 à 17h 10
Un test assez complet du Pureview 808 comparé à un Canon EOS 650D…
Le 11/07/2013 à 16h 37
Le 11/07/2013 à 16h 18
Le 11/07/2013 à 15h 47
Windows 8.1 : tout savoir de la procédure de mise à jour
27/06/2013
Le 27/06/2013 à 09h 35
Le 27/06/2013 à 08h 26
PS4 ou Xbox One : votre verdict après les annonces de l’E3 ?
12/06/2013
Le 12/06/2013 à 14h 20
Le 12/06/2013 à 14h 10
Le 12/06/2013 à 13h 56
Le 12/06/2013 à 13h 46
Le 12/06/2013 à 13h 35
Le 12/06/2013 à 13h 28
Le 12/06/2013 à 13h 11
Le 12/06/2013 à 13h 00
Le 12/06/2013 à 12h 57
Le 12/06/2013 à 12h 39
Le 12/06/2013 à 12h 38
Utilisez-vous un antivirus, si oui lequel ?
07/06/2013
Le 07/06/2013 à 12h 47