Ce n’est pas plutôt parce que la “qualité studio” 24⁄192 requiert un matériel exigeant (et aussi sûrement une source “exigeante” qui n’est pas de la variété) que ne possèdent pas 95% des mortels ? Les études scientifiques sur ce sujet, on en lit régulièrement, mais le plus important reste le ressenti à l’oreille.
Quant aux enregistrements des années 80, j’avais lu que c’était justement parce que la numérisation n’était pas toujours optimale que certains avaient tendance à considérer le vinyle comme supérieur…
Le problème est justement le ressenti à l’oreille, ou plutôt le couple oreillle/cerveau. Quand tu lis les retours totalement subjectifs de compraisons 16⁄24 bits, ou même toute compairason d’écoute “audiophile”, t’as l’impression que ces personnes ont de véritables instruments de mesures fiables et pas du tout influençables à la place de leur système auditif. Alors qu’il suffit d’un coup de fatigue, ou d’être de bonne humeur un jour et de mauvaise le lendemain, et faire une même écoute avec un ressenti complètement différent.
Concernant le 24bits, il est vrai qu’il apporte un surplus de précision dynamique par rapport au 16bits (forcément, 16 777 215 de niveaux différents contre 65 536). MAIS, dans les faits, les erreurs induites par la quantification du signal analogique sous forme numérique produisent un bruit de fond, bruit d’un niveau sonore de 96dB en dessous du niveau maximal en 16bits, et de 144dB dans le cas du 24bits. A 96db autant dire que c’est vraiment que dalle et rien qu’on ne puisse entendre.
Une image qui pourra aider à comprendre (en vert le signal original, en jaune le signal quantifié, et en rouge le bruit produit cette quantification):
Pour reprendre le site qu’OlivierJ à indiqué, on y trouve deux excellentes vidéos qui expliquent, avec expériences à l’appui, le fonctionnement de la numérisation d’un signal audio :
Ou sinon une Shield TV ? Elle lit tous les formats jusqu’au HEVC 4k@60Fps, avec Kodi dessus, ou Plex, ou SPMC, ou autre, ça fait une centrale multimédia au top, fluide, que tu peux commander avec leur télécommande, et te passer d’une souris/clavier.
J’ai fait le switch l’année dernière d’un HTPC vers la Shield et je ne regrette pas du tout. Surtout qu’elle ne fait absolument pas de bruit et consomme très peu en comparaison d’un HTPC.
Euh… à moins que je me trompe, mais sur les MBP 13 pouces il n’a toujours été question que de processeurs 2 coeurs avec HyperThreading. Les 4 coeurs sont réservés aux modèles 15 pouces.
Pour avoir essayé avec mon PC fixe et mon Mac en wifi, les temps de compilation sont quand même assez long ! Sans parler de l’émulateur qu’il faut faire passer par le réseau, ou qu’il faut brancher ton device de test sur le Mac (et non sur le PC). C’est quand même pas mal de contraintes à ce niveau là.
J’essaierai avec une VM windows sur le mac directement, pour avoir les deux sur le même hôte, mais bon au final, il faut un mac…
Ce que tu dis est stupide de toute façon , vu la quantité de devs webs, python, IOS etc..qui utilisent MacOS
Concernant le dev iOS, tu n’as pas vraiment le choix puisque Apple impose d’utiliser Mac OS X avec XCode.
Pour le reste ce n’est pas tellement parce que c’est Mac OS, c’est surtout parce que beaucoup de ces technologies open source et de l’environnement de développement qui va autour sont conçus pour être utilisé en ligne de commande. Et à choisir entre un Linux et Mac OS, le choix est vite faite pour beaucoup d’entre eux.
Mais qu’on ne vienne pas me dire que mac os c’est incroyable, je bosse dessus depuis 3 ans, et bah je m’y suis toujours pas fait. Entre, les fenêtres qui se mettent en plein écran quand tu cliques sur le “+” et le finder… Pour le reste je suis tout aussi bien sous windows, mac os n’apporte rien de plus.
J’aime beaucoup ses généralités, les devs c’est tous des feignants, ça copie/colle, blabla…
Il ne sait pas de quoi il parle visiblement.
Un jeu qui sort avec trop bugs, c’est simplement qu’il n’y a pas eu assez de temps pour le terminer, rien de plus rien de moins. T’as beau avoir les plus talentueux dev de la terre, ce n’est pas de la magie et faire un jeu (ou n’importe quel logiciel/site web/app mobile/autre) de qualité c’est long.
Evidemment, ce n’est pas le monde de bisounours et il y a une notion financière et stratégique qui viennent se mêler à tout développement, simplement parce que ce n’est pas gratuit, que ça coûte cher et qu’à un moment donné, tu n’es plus en capacité d’investir pour prendre le temps nécessaire à la finalisation de ton projet. Et quand tu en arrives là, c’est qu’en temps que dirigeant/décisionnaire t’as eu les yeux plus gros que le ventre (parce que, oui, ce n’est pas le monde de bisounours et qu’il ne suffit d’imaginer quelque chose pour que ce soit fait dans la minute et de la bonne manière). La conséquence est que tu vas vouloir mettre un coup de pression sur tes équipes pour rentrer dans tes frais et limiter la casse, avec heures supps et compagnie, et l’aspect humain en prend un gros coup.
Je ne critique pas certains métiers en particulier, on a tous nos objectifs à atteindre, avec des directives qui viennent d’au-dessus (c’est plus là le problème à mon avis), mais encore faudrait-il que ces objectifs soient réalisables en temps et en heures normales (sans heures supp), avec les capacités de tes effectifs.
Perso je ne me plains pas, en tant que dev (pas dans le jeu), j’ai toujours eu la chance de travailler avec des métiers qui, s’ils ne comprennent pas souvent ce que je fais ni comment, comprennent en revanche qu’il y a des contraintes techniques en dehors desquels on ne peut pas sortir, et que pour un budget donné ça ne leur donne droit qu’à X jours de travail et l’équivalent en terme de dev, ni plus ni moins.
De toute façon les dévs sont connus pour leur faignantise : ils passent leurs journées à faire des copier/coller et arrive à pondre des jeux remplis de bugs. Bien sûr, c’est la faute dans ce cas au méchant commercial/marketeux/financier qui maltraite la pauvre créativité des dévs qui vivent chez les Bisounounours.
Bref je suis sûr que c’est en partie crai chez ce studio.
Il y a de l’ironie cachée que je n’arrive pas à percevoir, ou tu es sérieux dans tes propos ?
Même après 1 an ? Mes pads 360 aussi au début ne faisaient aucun bruit, puis ce craquement est apparu après 1 an sur les gâchettes (alors que je m’en sers peu finalement).
C’est d’ailleurs pour ça que je veux prendre un pad Xbox One c’est que je n’en peux plus c’est trop désagréable. A chaque fois que j’appuie sur la gâchette, j’ai l’impression qu’elle va me rester dans les mains.
Oui la sensation est vraiment différente entre les deux types de gâchettes. On dirait que celles de la XOne ont du feutre ou un truc du genre, tu sens que la course ne s’arrête pas contre du plastique et ça ne fait pas de bruit du tout !! Et les moteurs de vibration dans les gâchettes (pour les jeux les supportant) c’est juste top !
La manette de la XOne n’est pas assemblée par vis comme l’était celle de la 360, c’est tout emboîté mais correctement, et il n’y a vraiment aucun jeu nulle part. Pour avoir les deux et jouer avec l’une ou l’autre régulièrement (XOne et PC), celle de la XOne est vraiment mieux foutue que l’autre.
Ah ? En quoi ça n’est pas une réponse à sa question ?
Le pad DS4 est bien plus ergonomique et avantageux que celui de la Xone, ne serait-ce que grâce au pavé tactile et la possibilité de gérer les profils et réglages fins… qui n’a jamais eu envie d’utiliser les gâchettes en tant que boutons sur son pad xbox PC ?
Le pavé tactile ce n’est pas un argument franchement, aucun jeu n’utilise ça et ce n’est même pas pratique. La gestion des profils OK peut-être pour ceux que ça intéresse.
Par contre pour le reste… la DS4 est juste un jouet dans la main, les plastiques craquent et elle est petite. Les sticks sont toujours aussi mou, et le gauche toujours aussi mal placé alors que c’est le mécanisme principal de direction dans quasiment tous les jeux actuels. Le bouton “options” qui est bien mal placé aussi, il ne tombe jamais sous le doigt. Les gâchettes sont aussi à la ramasse face à celle de la XOne.
Pour moi c’est manette Xbox One sans aucune hésitation.
Ca consomme plus, mais avant de compenser les 200$ d’écart par la différence consommation d’électricité de tes cartes graphiques, il te faudra beaucoup jouer. Mais beaucoup, du genre 10H par jour 7⁄7, et ce sera même pas assez.
Plus proche de la 960 ou de la 970? Parceque il y a déjà de quoi faire à ce prix
de la 970, la 480X est assez similaire à la 390 qui est équivalente à une 970. Si l’on prend en compte les petites optimisations architecturales GCN4, on pourrait même plutôt être entre la 970 et 980. Pour 199$ c’est plutôt pas mal.
XMalek a écrit :
eh beh, moi qui attendait un rival à la gtx 1070 on a même pas ça…
Je vais attendre les benchs, mais ca pue pour amd encore une fois.
Ils sortent la série des 480, ça laisse de la place pour sortir des 490 en face des 1070⁄1080, et de nouvelles Fury derrière.
exactement, et encore, pour entendre toute cette plage dynamique dans une pièce normale, il ne faut pas craindre des montées de volume sonore à plus de 110db (et avoir le matériel pour la restituer).
Et un enregistrement de musique classique a une plage dynamique jusqu’à 60db, un morceau de pop actuel moins de 15 ou 10 db.
De plus, une pièce calme comme un salon dans une maison a un bruit de fond de 30-40db. Pour entendre le son le plus faible sur un CD (-96Db), il faudrait donc avoir le matériel capable de monter à 130Db, et surtout que tu supportes un tel volume sonore (ce que aucun humain n’est capable).
Sauf que comme indiqué, aucun morceau de musique ne possède une tel plage dynamique. Le niveau le plus faible d’un morceau musique (et encore, c’est certains morceaux, et non une généralité) se situe donc déjà 30db au-dessus du bruit d’un CD.
Enfin, il faut aussi prendre en compte le matériel utilisé pour la restitution. Beaucoup d’amplis ou DAC ont un SNR compris entre 110Db et 90Db, ce n’est pas rare et on est effectivement au dessus des capacités d’un CD. En revanche, le 24 bits permet d’aller jusqu’à 144Db, mais là je ne connais personnellement aucun ampli/dac/matériel capable de reproduire une telle plage dynamique.
La personne qui a écrit cette article a aussi fait deux vidéos expliquant comment fonctionne l’audio numérique, avec démonstration à l’oscilloscope à l’appui.
les mecs en studio bossent en 24 bits pas parce qu’ils entendent réellement une différence, mais bien pour des raisons techniques pour conserver une marge bien plus importante sur la dynamique (-144Db pour du 24bits contre -96Db pour du 16 bits).
Appliquer compresseur sur compresseur sur une piste audio avec un gain à chaque fois diminue la dynamique du son en augmentant le volume des sons faibles… et donc du bruit de fond, perceptible comme une sorte de souffle.
Mixer en 24 bits permet de conserver un niveau de bruit le plus faible possible et le plus éloigné de la plage dynamique audible.
Il existe bien une différence entre 24 bits et 16 bits, mais pas aussi incroyable que l’on puisse le penser, surtout pour du grand public qui n’ont ni l’oreille entraîné, ni le matériel électronique adéquat, ni l’environnement acoustique pour en profiter.
Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.
Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …
Ils parallélisent probablement le tout, mais le CPU n’est pas utilisé que pour l’IA, il faut en garder pour tout ce qu’il y a derrière (physique, audio, animations, etc.).
En plus de cela, chacun de ces systèmes sont plus ou moins dépendants, donc oui, l’affichage se fait en parallèle de la phase de calcul (le CPU et le GPU travaille bien en parallèle), mais malgré tout, ton moteur doit bien envoyé à un moment donné et régulièrement de quoi faire travailler le GPU, et cette fréquence là est dépendante des tâches réalisées pendant la boucle de calcul.
Le tout c’est d’avoir quelque chose de cohérent à envoyer à ton GPU, et cela se produit une fois que tout tes systèmes ont terminé leur calcul et sont en attente de la prochaine boucle.
Le problème est que si tu mets plus de temps pour atteindre cet état stable que ton GPU qui a déjà terminé de calculer de qu’on lui a donné à la boucle précédente, tu te retrouves avec une limitation CPU, ce qu’a l’air de décrire ici Ubisoft.
Il faut leur reconnaitre une chose à Gopro , c’est qu’ils font de magnifiques vidéos promotionnelles.
Et je pense que c’est en grande partie ce qui explique leur succès. Beaucoup de sportifs du dimanche s’imaginent qu’ils vont filmer des choses aussi incroyables en faisant leur petite sortie du dimanche à vélo dans le bois d’à côté…
Il me semble avoir vu dans une émission qu’ils ne faisaient aucune vidéo et se servaient dans les vidéos faites par la communauté pour faire leur pub. Leur marketing ne leur coûte vraiment pas grand chose du coup.
Haha, donc le HTML5 fait le même boulot que Silverlight ?
Silverlight qui prend 200Mo sur un PC…
Haha Silverlight ça fait plus de 5 ans que ça lit des vidéos avec DRM, et quand un navigateur supporte Silverlight, t’es sûr que ça marche. Là on arrive en 2015 et ça commence à bien fonctionner à peu près de partout en HTML5. Il serait temps j’ai envie de dire !
Ca n’empêche pas que Silverlight devient obsolète bien évidemment :)
Je ne sais toujours pas quoi utiliser entre plex ou xbmc..
Quelqu’un a déjà lut un vrai comparatif des deux solutions?
Perso, je me sers des deux.
J’utilise XBMC en local sur mon TV, et Plex pour la lecture de mes vidéos quand je ne suis pas chez moi :).
Je préfère XBMC en local car il est beaucoup plus complet et à jour que Plex, bug beaucoup moins et (mais ça reste subjectif) je préfère le skin de XBMC que celui de Plex
Mais c’est sûr que ça attire les gens (et ils auraient torts de se priver d’une telle communication), ça reste un gage de qualité, et moi-même je me suis intéressé à ce jeu car c’est le studio qui a développé Halo qui s’en occupe.
Je ne connais pas Borderlands donc je ne peux pas comparer, mais ça m’a l’air intéressant.
fatale de courant puisque celui délivré à l’iPhone 5 n’est que de 5V
Le problème n’est pas la tension mais l’intensité. Il n’est pas rare pour un chargeur de distribuer 1A en intensité, ce qui est mortel pour l’homme. Si les sécurités sur les disjoncteurs de maison sont à 30mA, ce n’est pas pour rien. Je prend aussi en exemple l’électricité statique : plusieurs milliers de volt transitent entre les deux corps concernés, mais avec une intensité très très faible, on sens une petite pique, mais on n’en meurt pas
… mais la bataille autour du megapixel comme argument de “qualité” des photos, c’est de la fumisterie. …
Je suis d’accord, mais dans ce cas là il ne s’agit pas uniquement prendre des photos de 41Mpx, il s’agit d’utiliser tous ces pixels pour constituer une image plus petite (3, 5 ou 8 Mpx) composée à partir de plusieurs pixels de la “full” (respectivement 14, 8 et 5 pixels). Sur le Pureview 808 déjà équipé d’une technologie similaire (pour ne pas dire identique), cela donnait des photos dignes de bon milieux de gamme compacts, on peut s’attendre à moins aussi bon
En même temps, tu parles d’un reflex qui dépasse allègrement les 1500€ nu et qui est dédié à la photographie et un smartphone (donc qui fait autre chose que de la photo) qui coûte 700€. Si la qualité est au rendez-vous comme sur le Pureview 808, il vient concurrencer directement les compacts milieu de gamme, pas les reflex, bien évidemment. Et avoir l’équivalent d’un bon compact dans sa poche, c’est assez intéressant
Ce qu’il manque, c’est la résolution de sortie, parce que je doute qu’il s’agisse de 41 MP effectifs.
Si c’est comme sur le Pureview 808, tu peux choisir 8, 5 ou 3 Mpix, sachant qu’il utilisera respectivement 5, 8 et 14 pixels en entrée pour n’en former qu’un seul en sortie.
Mais tu peux bien évidemment garder la résolution originale pour traitement ultérieur dans un outil de retouches ou autre.
petite question, j’ai une bonne promo grace au MSDNAA 200€ la Surface RT.
petite question que je me pose (j’ai pas eu le temps de chercher encore mais vous pourrez surement répondre à mes intérogrations)
Office est il intégrer sur la surface ?
est-il possible d’avoir une sortie HDMI/VGA/DP ?
Merci :)
Tu m’intéresses, j’ai aussi un compte msdnaa mais impossible de trouver la fameuse réduction sur la surface RT (à part en angleterre et australie). C’est bien dispo en France ?
De mémoire, Microsoft a affirmé que la Xboite supportait le jeu en 4K alors que Sony a annoncé une limite au jeu en 1080p.
Le jeu en 4K je n’y crois pas du tout…peut-être un upscale d’un rendu 1080p.
Une question fondamentale : la PS4 va-t-elle être cette fois ci un vrai media player (mkv, dolby et DTS HD…) et pas une boite super puissante completement sous exploitée?
Je n’ai pas de sources, ce ne sont que des “suppositions” basées sur les specs de PCI et mon expérience avec le matos PC (ce denier est aujourd’hui très proche de ce que l’on retrouve dans les consoles). Je ne sais pas si la console supporte le jeu en 4k, mais la sortie HDMI le gère oui, idem pour la PS4.
Au vue des specs techniques fournies par PCI, on peut facilement assimiler la carte graphique de la PS4 à un équivalent entre une Radeon 7850⁄7870 et celle de la X1 à un équivalent entre 7770⁄7850. Les consoles sont optimisées pour le jeu certes, cela n’empêche que la bande passante est ce qu’elle est et c’est le principal point bloquant pour proposer du 1080p (j’entend avec une bonne qualité graphique). Essaie de jouer en 1080p avec une 7770 tout en ayant une qualité graphique acceptable et un bon framerate, je pense que tu sera déçu.
Ca ne rendra pas le gameplay meilleur, mais apparement ils visent tous du 1080p/60Fps pour cette génération. La PS4 me semble largement mieux équipée pour y parvenir, c’est tout.
La fréquence est nettement supérieure (500 “MHz” contre 2133), on ne connais pas les détails du bus et de toutes façon la GDDR3 est de la DDR2 modifiée. C’est pas parce que le nom est similaire que les performances sont les même.
La fréquence est bien supérieure oui, mais en terme de débit, la GDDR3 de la X360 c’est 22 Go/s, la X1 avec de la DDR3 à 2133MHz c’est 17Go/s en single channel, 34Go/s en dual channel. D’après PCI, c’est 68Go/s (donc une sorte de quad channel ou un bus plus large ?). Quoiqu’il en soit, c’est bien inférieur à ce qu’on trouve sur PS4 et c’est dommage
En quoi ? Sur le papier la PS3 est plus puissante que la X360. Cela a pas empeché MS d’en vendre plein.
La puissance est une chose mais au finish, les jeux multi tourneront pareil. Il y aura que les exclus qui utiliseront la pleine puissance et encore.
En quoi ? sur le papier la PS3 est plus puissante que la X360 OK, mais vraiment pas des masses… Dans le cas de la PS4 et de la X1, l’écart est juste énorme. Avec les specs indiquées dans le tableau PCI, une PS4 est capable de faire du 1080p, la X1 non (ou alors avec une qualité graphique très largement en baisse).
C’est comme si t’avais un PC avec une Radeon 7850 (la PS4) et une Radeon 7770(XOne), c’est 50% de perfs en plus pour la première (source)
Donc oui, la puissance ne fait pas le jeu, mais quand je vois le nombre de personnes autour de moi qui ne jure que par ça, je me dis que MS se tire une balle dans le pied
je vais attendre de voir quand la nouvelle sort et à quel tarif
Rho allez, avec au minimum 8 jeux (je dis “minimum” parce que j’en ai 3 de plus sur le disque de la console mais je ne sais pas s’ils restent en changeant de compte… si quelqu’un des infos là-dessus, ça m’intéresse !)
Certains milieu tres bien informé on confirmé les specs, mais effectivement rien ne t’obliges à y croire " />
Je doute que l’on aie une confirmation d’MS “Oui l’architecture de notre console est moins optimisée et globalement moins puissante que celle de la PS4”.
On n’aura confirmation écrite que lors de la sortie des 2 consoles et je prend le parie que les informations données seront confirmées.
J’espère que tu te trompes " /> sinon, MS se tire clairement une balle dans le pied
Donc on est d’accord que MS a pas confirmé cette config?
Ben, pour moi non ! J’ai déjà vu des documents de Sony sur la PS4, mais aucun de Microsoft, ce ne sont que des rumeurs (y compris la partie graphique d’ailleurs, tout le monde annonce 768SP mais ça aussi ça n’a jamais été confirmé). Le processeur non plus, mais on sait que c’est un AMD, ce sera très certainement le même que la PS4
Pourtant c’est sur le tableau PCI d’ou ma crainte =).
Puis la GDDR5 c’est plus vidéo, donc je pense que MS a fait comme pour les Xbox jusqu’ici (si je me trompe pas) avec processeur et GPU dédie
En fait, la X360 avait une mémoire unifiée entre le CPU et le GPU (comme la PS4). C’était de la GDDR3 à 22Go/s. La DDR3 tel qu’indiquée dans le tableau (à une fréquence de 2133MHz donc) c’est 34Go/s en dual Channel, soit environ 50% de plus que la X360, mais surtout très loin des 176Go/s de la PS4 ! Bref, attendons une confirmation de MS avant d’affirmer que untel est plus puissante que un tel
Ca oui mais j’avais peur qu”il ce base que sur le tabeau fourni pas PCI qui met del a GDDR5 contre de la DDR3 …
la DDR3 n’a jamais été confirmé par MS. Par ailleurs, ce choix me semble étrange, équipé une nouvelle console d’une mémoire aussi rapide que ce qu’avait la X360 quand en face t’as de la GDDR5…
Plus sérieusement, le plus mauvais anti virus du marché c’est l’utilisateur. J’utilise MSE depuis un bon bout de temps et aucun problèmes à signaler, mais je fais attention où je mets les pieds :)
113 commentaires
Le 14/07/2018 à 06h27
Ma source principale d’info sur le numérique depuis plus de 10 ans , tout simplement !
L’arrivée du site dédié au hardware va bientôt vous faire un abonné de plus !
Le 02/03/2017 à 11h14
Le 03/02/2017 à 11h24
Ou sinon une Shield TV ? Elle lit tous les formats jusqu’au HEVC 4k@60Fps, avec Kodi dessus, ou Plex, ou SPMC, ou autre, ça fait une centrale multimédia au top, fluide, que tu peux commander avec leur télécommande, et te passer d’une souris/clavier.
J’ai fait le switch l’année dernière d’un HTPC vers la Shield et je ne regrette pas du tout. Surtout qu’elle ne fait absolument pas de bruit et consomme très peu en comparaison d’un HTPC.
Le 06/01/2017 à 15h53
186,26€ pour être exact avec ton mode de calcul
" /> (j’ai arrondi)
Tu n’achètes pas 2048Gio mais 2 000 000 000 000 d’octets, soit en fait 1862,65Gio.
Mais jaffalibre a également raison :
Le 17/11/2016 à 14h48
Euh… à moins que je me trompe, mais sur les MBP 13 pouces il n’a toujours été question que de processeurs 2 coeurs avec HyperThreading. Les 4 coeurs sont réservés aux modèles 15 pouces.
Le 09/11/2016 à 10h04
Pour avoir essayé avec mon PC fixe et mon Mac en wifi, les temps de compilation sont quand même assez long ! Sans parler de l’émulateur qu’il faut faire passer par le réseau, ou qu’il faut brancher ton device de test sur le Mac (et non sur le PC). C’est quand même pas mal de contraintes à ce niveau là.
J’essaierai avec une VM windows sur le mac directement, pour avoir les deux sur le même hôte, mais bon au final, il faut un mac…
Le 04/11/2016 à 15h11
Certes :), mais dans ce cas là, tu codes sur quel système et avec quels outils ?
Le 04/11/2016 à 10h40
Le 05/10/2016 à 09h58
J’aime beaucoup ses généralités, les devs c’est tous des feignants, ça copie/colle, blabla…
Il ne sait pas de quoi il parle visiblement.
Un jeu qui sort avec trop bugs, c’est simplement qu’il n’y a pas eu assez de temps pour le terminer, rien de plus rien de moins. T’as beau avoir les plus talentueux dev de la terre, ce n’est pas de la magie et faire un jeu (ou n’importe quel logiciel/site web/app mobile/autre) de qualité c’est long.
Evidemment, ce n’est pas le monde de bisounours et il y a une notion financière et stratégique qui viennent se mêler à tout développement, simplement parce que ce n’est pas gratuit, que ça coûte cher et qu’à un moment donné, tu n’es plus en capacité d’investir pour prendre le temps nécessaire à la finalisation de ton projet. Et quand tu en arrives là, c’est qu’en temps que dirigeant/décisionnaire t’as eu les yeux plus gros que le ventre (parce que, oui, ce n’est pas le monde de bisounours et qu’il ne suffit d’imaginer quelque chose pour que ce soit fait dans la minute et de la bonne manière). La conséquence est que tu vas vouloir mettre un coup de pression sur tes équipes pour rentrer dans tes frais et limiter la casse, avec heures supps et compagnie, et l’aspect humain en prend un gros coup.
Je ne critique pas certains métiers en particulier, on a tous nos objectifs à atteindre, avec des directives qui viennent d’au-dessus (c’est plus là le problème à mon avis), mais encore faudrait-il que ces objectifs soient réalisables en temps et en heures normales (sans heures supp), avec les capacités de tes effectifs.
Perso je ne me plains pas, en tant que dev (pas dans le jeu), j’ai toujours eu la chance de travailler avec des métiers qui, s’ils ne comprennent pas souvent ce que je fais ni comment, comprennent en revanche qu’il y a des contraintes techniques en dehors desquels on ne peut pas sortir, et que pour un budget donné ça ne leur donne droit qu’à X jours de travail et l’équivalent en terme de dev, ni plus ni moins.
Le 05/10/2016 à 09h04
Le 08/08/2016 à 09h58
Le 08/08/2016 à 09h01
Le 01/06/2016 à 13h28
Les 150w ne sont qu’une limite. Pour info la GTX 1070 c’est un connecteur 8 broches, la RX480 un 6 broches, ce qui suppose une consommation moindre.
Le 01/06/2016 à 13h23
Ca consomme plus, mais avant de compenser les 200$ d’écart par la différence consommation d’électricité de tes cartes graphiques, il te faudra beaucoup jouer. Mais beaucoup, du genre 10H par jour 7⁄7, et ce sera même pas assez.
Le 01/06/2016 à 08h30
Le 24/03/2015 à 15h54
Ca arrive en permanence ? Tu dors sous des avions au décollage ? :)
Et 130db ça fait mal ;)
Le 24/03/2015 à 15h41
exactement, et encore, pour entendre toute cette plage dynamique dans une pièce normale, il ne faut pas craindre des montées de volume sonore à plus de 110db (et avoir le matériel pour la restituer).
Le 24/03/2015 à 15h36
Et un enregistrement de musique classique a une plage dynamique jusqu’à 60db, un morceau de pop actuel moins de 15 ou 10 db.
De plus, une pièce calme comme un salon dans une maison a un bruit de fond de 30-40db. Pour entendre le son le plus faible sur un CD (-96Db), il faudrait donc avoir le matériel capable de monter à 130Db, et surtout que tu supportes un tel volume sonore (ce que aucun humain n’est capable).
Sauf que comme indiqué, aucun morceau de musique ne possède une tel plage dynamique. Le niveau le plus faible d’un morceau musique (et encore, c’est certains morceaux, et non une généralité) se situe donc déjà 30db au-dessus du bruit d’un CD.
Enfin, il faut aussi prendre en compte le matériel utilisé pour la restitution. Beaucoup d’amplis ou DAC ont un SNR compris entre 110Db et 90Db, ce n’est pas rare et on est effectivement au dessus des capacités d’un CD. En revanche, le 24 bits permet d’aller jusqu’à 144Db, mais là je ne connais personnellement aucun ampli/dac/matériel capable de reproduire une telle plage dynamique.
Le 24/03/2015 à 15h26
+1000
La personne qui a écrit cette article a aussi fait deux vidéos expliquant comment fonctionne l’audio numérique, avec démonstration à l’oscilloscope à l’appui.
http://xiph.org/video/
Le 24/03/2015 à 15h00
les mecs en studio bossent en 24 bits pas parce qu’ils entendent réellement une différence, mais bien pour des raisons techniques pour conserver une marge bien plus importante sur la dynamique (-144Db pour du 24bits contre -96Db pour du 16 bits).
Appliquer compresseur sur compresseur sur une piste audio avec un gain à chaque fois diminue la dynamique du son en augmentant le volume des sons faibles… et donc du bruit de fond, perceptible comme une sorte de souffle.
Mixer en 24 bits permet de conserver un niveau de bruit le plus faible possible et le plus éloigné de la plage dynamique audible.
Il existe bien une différence entre 24 bits et 16 bits, mais pas aussi incroyable que l’on puisse le penser, surtout pour du grand public qui n’ont ni l’oreille entraîné, ni le matériel électronique adéquat, ni l’environnement acoustique pour en profiter.
Le 07/10/2014 à 16h02
Le 29/09/2014 à 15h01
Le 29/09/2014 à 14h52
Le 25/09/2014 à 11h05
Le 24/09/2014 à 09h09
Le 01/09/2014 à 15h17
36832 avec un Nexus 5 sous KitKat 4.4.4
Le 05/05/2014 à 08h42
Le 30/04/2014 à 10h14
il s’est passé la même chose chez moi depuis une ou deux semaines. Je suis passé de 42Mb en down et 12Mb en up à 16 en down et 1Mb en up :( :( :(
Le 05/03/2014 à 10h04
Le 27/09/2013 à 11h30
Le 27/09/2013 à 11h02
Le 16/07/2013 à 14h27
fatale de courant puisque celui délivré à l’iPhone 5 n’est que de 5V
Le problème n’est pas la tension mais l’intensité. Il n’est pas rare pour un chargeur de distribuer 1A en intensité, ce qui est mortel pour l’homme. Si les sécurités sur les disjoncteurs de maison sont à 30mA, ce n’est pas pour rien. Je prend aussi en exemple l’électricité statique : plusieurs milliers de volt transitent entre les deux corps concernés, mais avec une intensité très très faible, on sens une petite pique, mais on n’en meurt pas
Le 11/07/2013 à 17h10
Un test assez complet du Pureview 808 comparé à un Canon EOS 650D…
Le 11/07/2013 à 16h37
Le 11/07/2013 à 16h18
Le 11/07/2013 à 15h47
Le 27/06/2013 à 09h35
Le 27/06/2013 à 08h26
Le 12/06/2013 à 14h20
Le 12/06/2013 à 14h10
Le 12/06/2013 à 13h56
Le 12/06/2013 à 13h46
Le 12/06/2013 à 13h35
Le 12/06/2013 à 13h28
Le 12/06/2013 à 13h11
Le 12/06/2013 à 13h00
Le 12/06/2013 à 12h57
Le 12/06/2013 à 12h39
Le 12/06/2013 à 12h38
Le 07/06/2013 à 12h47