votre avatar

HarmattanBlow

est avec nous depuis le 21 juin 2007 ❤️

5048 commentaires

Le 10/04/2013 à 11h 35







lordnapalm a écrit :



il n’y a malheureusement pas que les capacités des élèves qui sont prises en compte.





Mais si. Sur le fond ce sont bien les capacités des élèves que l’on vise à prendre en compte via , pour la grande majorité de ces écoles, un concours purement scolaire. Pour beaucoup de ces écoles il n’y pas d’entretien d’évaluation de ta personnalité ou autres. Ce sont de simples épreuves écrites et orales de maths, de français, de sport, etcétéra et les N premiers sont admis.



Après on peut trouver à redire : l’examinateur sera inconsciemment biaisé par sa culture bourgeoise (transmise plutôt qu’acquise) qu’il recherchera chez l’élève, notamment à l’oral, ainsi que par d’autres préjugés comme la couleur de peau. Par ailleurs le gamin de bonne famille saura à l’âge de dix ans ce qu’est Polytechnique et comment bien réussir sa vie quand un autre découvrira tout cela un mois avant les inscriptions pour les études supérieures. De même que le premier aura généralement une meilleure culture générale (à nouveau la culture bourgeoise de Bourdieu) et qu’une toute petite poignée gagnera sa place via le piston voire la corruption.



Et c’est toujours cette même culture bourgeoise, les réseaux et les défauts de capacité financière qui limiteront la progression d’un élève issu de milieux modestes même doté d’excellents résultats.



Néanmoins, si tu bosses et que tu as les capacités, tu peux faire un excellent parcours scolaire quel que soit ton milieu social (dans la limite du raisonnable : si tu dois t’occuper de ta mère cocaïnomane tout en bossant au McDo pour payer le loyer pour toi et tes frères et soeurs forcément…). Ces grandes écoles publiques sont loin d’être inaccessibles et elles suffisent à offrir au moins un bel avenir aux yeux d’un membre de famille modeste, voire bien davantage.


Le 10/04/2013 à 10h 55







misterB a écrit :



Ce genre d’impot a pour but de plafonner artificiellement les salaires, ce qu’avait fait lues US pendant la crise et après guerre en allant jusqu’a 94%





Bien entendu et c’est pour ça que je ne comprends pas ce ton négatif vis-à-vis de cette décision du PDG “qui préférerait priver l’état de revenus”.


Le 10/04/2013 à 10h 51







misterB a écrit :



Mais c’est surtout que trop de gens acceptent ça, il y a 60 ans la ration etait de 15 entre employé le plus bas et patron, maintenant il arrive a plus de 100 dans certaines boites.





En revanche les richesses étaient plus inégalement réparties, avec un patrimoine encore plus concentré sur une minorité. Le patron ne se goinfrait pas mais l’actionnaire si.







lordnapalm a écrit :



Oui mais pour moi ce n’est “public” que sur le papier, dans les faits c’est assez compliqué d’y rentrer pour le commun des mortels.





Et en quoi ça les rend moins publiques ?





Si tu sorts d’un collège en Zup, Henri 4 c’est pas gagné.



Et tu proposes quoi ? Qu’est-ce qui serait “public” ?


Le 10/04/2013 à 10h 43



Plutôt que de verser de l’impôt et contribuer aux finances publiques, le patron de France Télécom préfère ainsi laisser l’argent au chaud dans les caisses d’Orange.



Quand les types se versent plusieurs millions par an de salaire, c’est dégueulasse parce que c’est sur le dos des employés et des clients, mais quand ils baissent leur salaire à un million c’est dégueulasse parce que ça prive l’état de revenus ? Il faudrait se décider, non ?



Cela dit à mon avis ce n’est pas là l’ensemble de sa rémunération, il faudrait voir s’il existera une parade à cette nouvelle taxe.









Le-Glod a écrit :



Mais ils en font quoi de tout ce fric ?





L’important est d’en avoir plus que ses copains. A partir d’un certain niveau c’est presque toujours la seule utilité. Il y a quelques exceptions, avec des types qui utilisent vraiment leur fric pour investir dans des projets, créer des entreprises, etcétéra, mais ce n’est pas la règle et en général les investissements n’ont pas d’autre but que de gagner plus de fric.



On a aussi ceux qui rêvent de fonder une puissante dynastie par laquelle on se remémorera d’eux des siècles plus tard, les grands collectionneurs d’art, etcétéra.


Le 10/04/2013 à 11h 09

Comme d’hab tout le discours marketing tourne autour de la bande passante et ne dit rien de la latence, au moins aussi importante. Pourtant…

* Aujourd’hui les meilleures bandes passantes excèdent les besoins des CPU et n’apportent plus aucune gain en perfs. A contrario réduire la latence a un effet important.

* Des CPU plus puissants nécessiteront davantage de bande passante mais il n’y a pas de quoi s’exciter sur ces nouvelles bandes passantes. D’autant qu’à chaque nouvelle génération de mémoire la latence remonte à des niveaux médiocres et ne redescend qu’à la fin de la génération.



TL;DR : ne vous excitez pas sur les mémoires haut de gamme, regardez les benches pour savoir à quelle fréquence votre CPU cesse de gagner en puissance, puis privilégiez la plus faible latence possible à ce niveau. Et n’hésitez pas à perdre un peu en fréquence si vous gagnez en latence.









WereWindle a écrit :



voila, ce n’est pas de la DRAM mais des mémoires spécifiques pour les GPU





Ouaip, meilleure bande passante mais latences plus élevées. Bien pour le GPU, pas bien pour le CPU.


Le 10/04/2013 à 09h 51







sybylle a écrit :



Rien de neuf, c’est un peu la norme en politique de droite (PS, UMP, UDF, FN…)







C’est certainement les mieux placés pour savoir de quoi ils parlent, contrairement à nos manager-présidents qui (…) ont mené une politique au détriment du peuple et de la nation, au bénéfice de leurs proches et entreprises amies





Bref…Une vision novatrice ce manichéisme, qui a bien prouvé son efficacité, surtout dans l’enrichissement (pouvoir et argent) d’un groupe par rapport à la majorité.





L’arme idéale de l’apprenti despote, utilisé par la plupart des nations autoproclamées démocratique, mais tombées aux mains d’individus faux et égoïstes, briguant les postes pour toute autre raison que la nation et le peuple.



Vous avez quand même un bon terrain pour vous entendre tous les deux. <img data-src=" />





Et tout en étant soldat de formation, avec de fortes valeurs traditionnelles, il a était curieux de tout et ouvert à tous, en opposition avec le manichéisme de la diaspora politique.



Il était surtout fin politique. <img data-src=" />

Et vivait à une époque de circonstances exceptionnelles.







Takoon a écrit :



C’est pas de leur faute, mais la faute à la société. Discours classique.





Ce n’était pas mon discours. Mon propos était : si tu penses qu’en tapant sur la gueule d’un accro à la coke il va se désintoxiquer et ne pas récidiver, tu es stupide. Mais nous en revenons à ton vrai problème : les résultats et les victimes tu t’en fiches, tout ce que tu veux c’est qu’on cogne sur les coupables en ton nom et avec cruauté, et tant pis si rien n’est résolu.


Le 10/04/2013 à 09h 34







ActionFighter a écrit :









Je ne vais pas m’attarder sur le sujet. Je suis d’accord avec la plupart de tes réponses, j’aurais à redire sur d’autres mais peu importe. Je ne voulais même pas m’opposer à l’idée de légalisation (j’y suis en fait plutôt favorable) simplement réagir à ton affirmation de la possibilité de créer ainsi des emplois alors qu’il me semble qu’il s’agirait avant tout d’une réorganisation vers la légalité plutôt qu’une création nette, et que tu seras sans doute d’accord avec moi pour dire que l’issue économique est complexe et loin d’être certaine. Comme à peu près tous les aspects du sujet d’ailleurs.







Drepanocytose a écrit :



Et ce qu’on oublie souvent de dire, c’est surtout surtout que ca permettrait un usage rationnel en medecine : la weed c’est super utile pour les sidéens, les cancereux, certaines dépressions, certains parkinsons, etc.

Aujourd’hui même un anesthésiste, qui pourtant est autorisé à t’injecter n’importe quoi super violent, ne peut pas utiliser de la weed sauf dérogation très particulière….





Gros +1.







Takoon a écrit :



malheureusement, la vérité reste invariable. Il est nettement plus facile de prendre la défense d’individus qui n’en ont pas besoin et vivent dans un milieu fermé, avec des arguments invérifiables aux yeux du grand public, que d’être bénévole au service de la grande majorité de la population, celle qui est honnête.





Mais pourquoi opposer les deux ? Quel rapport sinon l’occasion d’un peu de manipulation rhétorique de caniveau ?







Takoon a écrit :



Chacun son choix, le mien étant d’être du bon côté, et surtout loin de l’autre. On ne mélange pas les torchons et les serviettes, hein ?





Outre le fait que le bon et le mauvais côté sont loin d’être imperméables (l’incitation à la haine raciale est un délit dans lequel tu aimes apparemment te complaire au vu des propos rapportés par Drépanocytose), il faudrait que tu essaies de comprendre que la prévention de la récidive passe par un traitement humain et un accompagnement, ce qui est dans notre intérêt à tous.



En prison tu as beaucoup de types cassés par leur enfance, leur défaut d’éducation de base (40% d’illettrés, 70% à 90% d’analphabètes), des dépendances ou d’autres problèmes de ce genre qui empêchent leur insertion. Tu ne soignes pas ces problèmes en cassant la gueule aux gens, pas plus que tu n’en fais de bons travailleurs dociles.







Takoon a écrit :



au passage tu zappes le passage ou je mentionne le palmarès des présidents de l’OIP, y aurait-il un problème de crédibilité sur leurs affirmations ?





Il y a quelques années sur PCI je me suis pris la tête avec un type qui rejetait des données sous prétexte qu’elles émanaient d’un “proche” du FN, alors que ces données étaient indiscutables. On appelle ça de l’obscurantisme. Et de même que le FN me sort par le nez, je suis très choqué par le parcours confortable de certains membres d’Action Direct. Mais y a t-il quoi que ce soit dans les données de l’OIP elles-mêmes qui soit à critiquer ?


Le 10/04/2013 à 07h 26







Takoon a écrit :



Pas étonnant de voir autant de visiteurs de prisons perdre leur temps à parler de la pluie et du beau temps avec des pédophiles, des tueurs, des dealers, pendant qu’aux restos du coeur on manque de bras, et ailleurs, des enfants aimeraient qu’on s’occuppe d’eux.





Rooh ! C’est beau comme du Le Pen quand elle nous parle des p”tits vieux qui crèvent à cause de ces salopes d’avorteuses. Tu veux vraiment qu’on s’amuse à comparer le nombre de visiteurs de prison et le nombre de bénévoles des restos du coeur ?





Beaucoup d’égards et d’attentions pour les délinquants, et aucune pensée ni action pour les victimes.



Dit le type qui n’en a en réalité rien à faire des victimes puisqu’il propose des mesures sans queue ni tête qui feraient exploser la récidive car motivé par ses seuls désirs sadiques.





Alors soit les biens pensants n’ont pas de conscience, oui bien veulent-ils juste se donner bonne conscience en public ?



Et bla et bla…





En effet, il est de bon aloi de s’offusquer des conditions de détention soi disant inhumaines, alors que soutenir la famille d’un enfant agressé nécessite un investissement plus fort.



En quoi les deux s’opposent-ils ?





“Le saviez vous ?” : Chaque jour, des violeurs, des agresseurs de personnes âgées, percoivent entre 500 et 5000€ de dommages et intérêts de l’Etat parce que leur plainte est soutenue par un avocat bobo.



La loi s’applique de façon identique à tous, tu as un problème avec ça ? Tu proposes qu’on remplace les juges par un comité de bons citoyens au crâne rasé qui jugeront en fonction de leurs appréciations personnelles plutôt qu’en fonction de la loi ?



Cela dit ta phrase est une fois de plus mensongère : pour commencer il n’y a pas assez de criminels et de violeurs en France et si quelques uns ont pu obtenir une indemnisation c’est anecdotique. Ensuite et quant aux avocats qui défendent les délinquants, la plupart le font pour bouffer et non par conviction politique. Mais ^quoi qu’il en soit, en quoi est-ce important ? Il faut bien qu’eux aussi soient défendus par un avocat, non, avant qu’on ne les reconnaisse coupable ? Ou bien penses-tu que l’accusation se suffit à elle-même et qu’un juge ne devrait pas avoir à entendre une défense ?


Le 10/04/2013 à 07h 11







Takoon a écrit :



Jusqu’à preuve du contraire les seules personnes qui détruisent, salissent les prisons et se plaignent, sont les détenus eux même.





Ben oui, tout le monde sait bien que même après un siècle un logement demeure en parfait état et n’a pas besoin de réfection si on en prend soin. Que les détenus arrêtent de respirer aussi, ça fera moins d’oxydation. Ces sauvageons…


Le 10/04/2013 à 05h 36







Liam a écrit :









Merci ! Je n’avais pas eu le courage de faire une telle réponse point par point, or la tienne est pleine d’intelligence et d’humour, et m’a même fait rire de bon matin. Et il en faut du rire pour nous éviter de céder aux incessants et haineux coups de boutoirs de gens comme Takoon.

<img data-src=" />


Le 09/04/2013 à 20h 55







Takoon a écrit :



A croire que la vie ne vaut pas grand chose à vos yeux, à moins qu’un de vos enfants y passe.





Le taux de récidive pour les crimes graves est aujourd’hui inférieur à 3% et il est certain que votre système ferait pire. Votre but n’est pas de protéger mais de satisfaire vos instincts sadiques.


Le 09/04/2013 à 20h 49







Takoon a écrit :



pas vraiment, mais 4 murs, 4 MG42 autour et on envoie la bidoche par dessus le mur, c’est pas cher et çà devrait suffire à assurer la dissuasion et la prévention de la récidive.





Vous allez donc volontairement créer des endroits sur le territoire Français où la loi ne s’appliquera plus ? Et en grand psychologue que vous êtes vous estimez qu’après dix ans passés à vivre comme un fauve le détenu deviendra un brave citoyen modèle simplement en passant le porche ?


Le 09/04/2013 à 20h 40







Takoon a écrit :



Ces affirmations sont la vérité. Qui êtes vous pour prétendre le contraire.

Les faits, rien que les faits. Renseignez vous auprès des professionnels du secteur et ne vous limitez pas aux affabulations des bobos anarcho-utopistes doux rêveurs.





Renseignez-vous vous-même. En premier lieu vous assimilez tous les types de détention ensemble, ensuite vous faîtes passer pour généralité ce qui n’est qu’exception et enfin vous travestissez en une sorte de service de luxe des services qui ne relèvent que du strict nécessaire et pourtant souvent en grave défaut de moyens comme la santé en prison ou la gestion des problèmes mentaux.



Soit vous êtes ignorant de ce dont vous parlez, soit vous êtres un salopard manipulateur.





Vous regardez trop la télévision et les reportages bidons sur le sujet.



Qu’on arrête de me casser les couilles avec la télé ! Tous les deux jours sur PCI un abruti vient me balancer une remarque à propos du fait de trop regarder la télé sous prétexte que je ne gobe pas les discours démago que défend l’auteur. Moi j’ai jeté ma télé il y a plus de dix ans et je passe une heure par jour à m’informer auprès de sources écrites fiables et variées. Et vous ?!







Philippe-67 a écrit :



Pour info, on est pas en Amérique, il n’y a pas de prisons pour les petits délits et des prisons haute sécurité.





Si, comme dans tous les pays. Et comme dans tous les pays il arrive qu’on regroupe sur une même prison différents quartiers, isolés, chacun destinés à différents types de prisonniers, ayant chacun leur mode de fonctionnement.


Le 09/04/2013 à 19h 05







tideeffe a écrit :









Il faut vraiment que PCI corrige ce bogue qui fait que les nouvelles pages mettent parfois très longtemps à apparaître. <img data-src=" />

Je salue néanmoins la persévérance.


Le 09/04/2013 à 17h 31







Takoon a écrit :









Présentation fallacieuse et propagande à vomir. Tu n’as qu’à y aller si c’est tellement sympa.


Le 09/04/2013 à 16h 11







ActionFighter a écrit :



Il n’y a qu’a légaliser le cannabis. On crée de l’emploi, et on stoppe les trafics.





Vite dit :

* Vu les conditions salariales actuelles des petits bras (travail 77 payé pas grand chose), tu créerais bien moins d’emplois légaux dans la distribution que tu ne supprimerais d’emplois illégaux.

* A voir si tu pourrais forcer une relocalisation de la production (à faible valeur ajoutée) en France ou si celle-ci continuerait à être importée de l’étranger, forcément illégalement en vertu des lois des autres pays.

* Les emplois créés ne le seraient pas dans les cités où se trouvent aujourd’hui une partie des vendeurs mais là où se trouvent les consommateurs.

* Qu’on légalise ou non, le but devrait être de réduire la consommation de cannabis vu la fréquence des abus par des gamins, ce qui entraînerait forcément une baisse du chiffre.

* Enfin il faudrait boucler tout ça pour mesurer l’impact sur l’emploi de l’évolution des prix et des pertes et gains de pouvoir d’achat qui résulteraient de cette abolition de la prohibition, les éventuels reports sur d’autres drogues, les conséquences sur l’activité policière et médicale, etcétéra.



A priori, faute de hausse de la productivité, je dirais que la légalisation serait un jeu à peu près à somme nulle et au détriment des cités en question mais avec une meilleure répartition des bénéfices aujourd’hui accaparés par ces PDG du deal qui exploitent illégalement leurs ouvriers.



Enfin, si tu penses que nos petits caids réagiraient en se disant “oh ben ça alors c’est pas de chance bon ben tant pis”, tu te mets plus qu’un doigt dans l’oeil. La fin des trafics ? Pas de mon vivant.







methos1435 a écrit :



Les médias ont clairement un parti pris. C’est plus vendeur de parler de violences policières que de montrer à tout le monde la réalité dans les quartiers sensibles.





Les quartiers sensibles sont pourtant loin d’avoir bonne presse : les médias en parlent régulièrement et pas en bien. Ce qui attire beaucoup plus d’audience que de traiter des violences policières.







Non, tu ne feras que reporter le trafic vers de nouvelles drogues à la mode comme la cocaine, l’extasie etc etc…



Le cannabis n’a pas vraiment d’importance au final. Ce qui est important le plus souvent c’est de fumer du canabis parce que c’est interdit. Tu vas à l’encontre des règles. Légalises le canabis et beaucoup trouveront autre chose d’illégal à fumer, avaler, sniffer…



P’têt ben qu’oui, p’têt ben qu’non.


Le 10/04/2013 à 09h 37







Nhaps a écrit :



Les classifications c’est un peu de la bêtise par moment….Franchement j’aurais jamais connu Final Fantasy VII quand j’avais 10 ans ! vu que c’était un PEGI12 ? PEGI16 ?





La bêtise du moment ?! Ça doit faire dix ans qu’elles sont en place !







Kikilancelot a écrit :



Ce genre de truc existe encore ? Il ne serait pas tant de penser à supprimer ces trucs inutiles aux possible et qui bloque du monde ?

Non parce que qui s’intéresse à la classification PEGI de nos jours (voir même est-ce que quelqu’un c’est déjà dit, au non c’est PEGI18 je vais pas le prendre, je vais pluto prendre Mickey qui est sans restriction ?). Quand même les vendeur s’en foute et que tu peu avoir un truc 18 sans problème en étant un gosses…





Sauf que les deux tiers des jeux des ados sont achetés directement par les parents. Donc, si, ça permet aux parents qui le souhaitent d’exercer un certain contrôle, en particulier pour les plus jeunes.


Le 10/04/2013 à 07h 06

Soyons sérieux : les utilisateurs veulent du gratuit. Ils ont ce qu’ils ont demandé !

Le 09/04/2013 à 16h 59

J’ai peur qu’avec tous ces icebergs sur l’océan ils se retrouvent un jour à ne plus pouvoir naviguer.

<img data-src=" />

Le 08/04/2013 à 23h 26







AxelDG a écrit :



Et le discours : une bonne partie de pirates ont aussi un côté mécènes tu en penses quoi ?





Et les pirates sont-ils aussi plus sexy, plus intelligents et généreux ?



A mon avis tu poses la question parce que tu as sous la main une étude qui montrerait que ceux qui piratent le plus feraient plus de mécénat. Sauf que ceux qui piratent le plus sont aussi les plus gros consommateurs (légaux ou pas) et donc les plus intéressés et que cette étude ne compare pas à niveau de consommation égal. J’ai bon ?



Car à niveau de consommation égal, je serais surpris qu’ils fassent plus de mécénat, ne serait-ce que parce qu’ils sont en moyenne plus pauvres et plus radins. Quant à leur comportement à revenu et niveau de consommation égal, à mon avis un plus fort taux de piratage conduit à moins de mécénat. De mon expérience c’est la capacité à sortir la CB qui prime : à capacité égale tu as le réflexe de payer ou non.







yeagermach1 a écrit :



Ce que l’article linké montre c’est qu’en moyenne un joueur PC rapporte plus qu’un joueur console. C’est juste une division.





Non, relis le titre du graphique, c’est le volume total et non pas par joueur, et l’échelle de gauche est en milliards de dollars (précisé dans le titre).



En revanche le marché PC est effectivement loin d’être moribond, au contraire des marchés consoles (en attendant les PS4 & co). Même le jeu “pour nous” s’y porte mieux qu’ailleurs, mais sans doute du fait du creusement du gap avec les consoles.


Le 08/04/2013 à 22h 40







von-block a écrit :



On a toujours, toujours dit qu’avoir trop de RAM sur un GPU était inutile parce que de toute façon, le proco du GPU n’avait pas le temps de traiter toute l’information et que bref cette RAM était gaspillé.





Je reviens là-dessus : on disait ça aux débuts des cartes 3D et c’était vrai à l’époque. La différence c’est qu’en ce temps-là les unités de texture et (surtout) le cache associé pesaient encore lourd dans la conception du GPU et étaient un facteur limitant. Aujourd’hui on s’en cogne parce qu’en principe ça ne pèse plus très lourd et qu’il y a tout ce qu’il faut de ce côté (dans les limites du raisonnable) alors que le gros de la puce et de son coût est occupé par les unités de traitement des shaders.









AxelDG a écrit :



Mon but n’était pas de t’insulter mais plus de citer des faits bien réels





Ce que tu me donnes-là c’est le volume du jeu PC tout compris, de farmville à Skyrim en passant par le jeu flash.




  1. Est-ce c’est ce dont nous parlons ? Est-ce que c’est ce qui nous intéresse personnellement ? Non, nous nous sommes intéressés par autre chose.

  2. Volume de ventes n’est pas rentabilité. Je sais que l’auteur de l’article a fait la même faute mais bon…

  3. Le fait est que lorsqu’un jeu est dispo sur PC/PS3/XBox, le PC tourne en moyenne à 10% des ventes.





    Le discours Hadopi qui est de mettre tous les vices du monde sur cette pratique sera terminé dans quelque mois…



    Autant le discours “c’est la faute du piratage” est faux, autant le discours “le piratage n’a rien à voir avec ça” l’est autant.


Le 08/04/2013 à 22h 08







manany a écrit :



Tu penses que grâce à la PS4, on aura bientôt (GTX 7XX / HD 8XXX?) des GPU pour PC avec 8Go de VRAM, sans pour autant exploser son porte monnaie ?





A mon avis sans aucun doute ! Les usines seront forcément là et six à douze mois après la sortie de ces consoles les capacités de production seront disponibles et les prix chuteront.



Cela dit je ne suis pas un spécialiste des questions de prix et autres. D’ailleurs je l’ai dit ailleurs et je le rappelle à l’occasion mais je ne bosse pas dans le JV. En revanche je suis développeur et j’ai bossé sur des moteurs de rendu pour d’autres usages.





Et si je comprends bien le même scénario pourrait s’appliquer à la 690 qui n’a que 2Go de RAM par GPU interfacés en 256bits chacun.



Je connais mal le marché des CG mais si j’ai bien compris ta carte la moins puissante avec 4Go ramait moins sur ton Skyrim ultra-moddé que la plus puissante avec seulement 2Go ? Alors en effet c’est exactement le même phénomène que ce qui se passerait en essayant de faire tourner tel quel un jeu PS4 sur un PC blindé mais avec moins de 8Go de VRAM : les données n’arriveraient pas assez vite au GPU, celui-ci se tournerait les pouces et le jeu ramerait.







von-block a écrit :



On a toujours, toujours dit qu’avoir trop de RAM sur un GPU était inutile parce que de toute façon, le proco du GPU n’avait pas le temps de traiter toute l’information et que bref cette RAM était gaspillé.



ALors pourquoi sur ce coup ci ce ne serait plus vrai ?





Personne de sérieux n’a jamais dit ça en fait. ^^

En fait, grosso modo, il n’y a aucun lien entre performances et taille des textures, tant que ta VRAM peut tout contenir (je simplifie).

En revanche, aujourd’hui, il est inutile d’avoir beaucoup de VRAM car les jeux n’en ont pas besoin. Et pour cause : ils ont tous été conçus pour tourner sur des PS3 avec 256Mo de VRAM.


Le 08/04/2013 à 21h 59







Nithril a écrit :



“Normalement” le passage à 4k est l’occasion d’avoir un rendu plus détaillé, sinon autant rester en 1080 et faire du upscaling ;)





Mais augmenter la résolution améliore bien plus le jeu que de simplement faire de l’upscaling. Essaie dans n’importe quel jeu.



Et puis ce que j’ai essayé d’expliquer c’est que la taille idéale pour les textures ne se mesure pas en “pixels de texture / pixels d’écran” mais en “pixels de texture / angle de vision de ton écran”. En effet, si à texture et résolution égales je recule le moniteur, le résultat est bien moins pixellisé. C’est ce qui permet aux consoles de garder un air potable sur des TV en 720x560 par rapport à nos 1920*1080.







AxelDG a écrit :



Discours débile TF1/Hadopi dont les statistiques ont démontré le contraire récemment et si tu veux mon avis.





Avant de m’insulter regarde les chiffres. Tiens, Skyrim, ce jeu infiniment meilleur sur PC, qu’ils s’agisse des graphismes, de la disponibilité des mods, des temps de chargement, ou de la console en cas de bogue qui te coincerait. Ventes sur PC ? 14% ! Seulement !



Masse Effect 3 ? 8% pour le PC ! Battlefield 3 ? Entre 10% et 15%, ce qui a valu à EA un commentaire sur les ventes étonnamment élevées, selon leurs mots !





Si tu veux pirater sur XBox ou sur PS3, c’est aussi largement possible… sauf que le public est trop… aller je vais lâcher le mot… trop con pour le faire.



Et c’est ce qui explique, en partie (le piratage ne fait pas tout), les meilleures ventes sur consoles et le fait que les éditeurs ciblent davantage cette plateforme.





Aujourd’hui le PC est reconnu comme une des plateforme les plus rentables.



Source ? Car ce qui tire le marché PC vers le haut aujourd’hui ce sont les f2p et les jeux casus, pas vraiment ce qui nous intéresse n’est-ce pas ?


Le 08/04/2013 à 21h 10







AxelDG a écrit :



C’est mal connaître les éditeurs…

Ça fait plus de 5 ans que sur PC les textures ne représentent pas la moitié de ce que les machines (PC) sont capables de faire.





Parce que les jeux sont calés sur la PS3.





Heureusement quelques éditeurs ont compris que le PC est non seulement l’origine de dizaine d’éditeurs émérites, d’une vitrine pour leurs futurs hits mais aussi du meilleur environnement de développement actuel et commence à mieux considérer leurs utilisateurs.

Les temps changent…



C’est aussi une plateforme où les taux de piratage sont de 90% et les ventes dix fois inférieures à celles des consoles.









manany a écrit :



Sans doute que l’affichage des jeux en 4K y sera pour quelue chose nan ?





En fait, non : que le rendu se fasse en 1080p ou davantage, on envoie les mêmes données au GPU, la bande passante du PCIe ne fait donc pas de différence. En revanche le travail pour le GPU et la bande passante entre la carte et le moniteur en sont affectés : plus de pixels à calculer et à transmettre.



On ne peut même pas attribuer à la hausse des résolutions le besoin en textures plus fines : ce besoin existait avant cela et aujourd’hui la hausse des résolutions se fait en aghrandissant les écrans, si bien que l’utilisateur s’éloigne de l’écran et que la pixellisation perçue demeure identique à textures constantes.


Le 08/04/2013 à 20h 05







Alucard63 a écrit :



La, je ne comprend pas en quoi le GPGPU peut remplacer le CPU mis à part pour les parties physiques et graphiques. Autant l’inverse est possible(avec de grosses limites…on sort pas 2TFlops d’un octocore Jaguar ni d’un core i7 d’ailleurs <img data-src=" /> ) autant dans ce sens je ne comprends pas.





Pour simplifier un CPU passe 90% de son temps dans 10% du programme (voire 99-1). L’idée c’est de voir quels algos sont mis en oeuvre dans ces 10% et tenter d’imaginer des approches parallèles. Le pathfinding peut être parallélisé, tout comme la détermination des objets visibles, etcétéra. C’est plus compliqué (plus cher et source de bogues), ça bouffe des ressources GPU et de la VRAM, mais enfin si tu es limité par le CPU comme sur la PS4, pourquoi pas ?



Par contre ça veut dire plus d’aller-retours entre CPU et GPU : parce que souvent tu extraies d’un gros algorithme quelques étapes parallélisables et le CPU demeure le chef d’orchestre entre ces étapes. Or la latence CPU-GPU peut être un problème pour du GPGPU mais la mémoire unifiée allège ce problème sur la PS4. Pas sur le PC, d’où l’intérêt de rester sur le CPU.



Au passage concernant la physique, en dépit des arguments marketing de NVidia, la déporter sur le GPU est loin d’être une bonne idée en général, à moins de vouloir faire des choses infaisables sur le CPU. Sinon on choisira plutôt de faire la physique sur le moins sollicité des deux parmi le CPU et le GPU, et c’est souvent le premier sur PC.







AxelDG a écrit :



Ne t’attends pas à voir des jeux qui utilisent toute la VRAM demain car vu comment les éditeurs ont fait chier les utilisateurs PC depuis des années, ça m’étonnerait bien que ça arrive aussi rapidement même pour les consoles Next Gen.





Je ne vois aucune raison de ne pas utiliser toute la VRAM dès lors qu’elle sera là. Ça n’est pas très difficile et les moteurs existent déjà pour en tirer partie.





Personnellement les belles textures, c’est bien, mais ce qui me fait vibrer aussi c’est tout ce qui va autour : effets de lumière, physique, particule, opacité, tesselisation… etc etc… bref ! De la puissance de calcul, merde ! <img data-src=" />



Plus de mémoire pour les textures, ça ne sert pas seulement à avoir des textures de plus haute résolution. Ça sert aussi à augmenter le nombre de textures par objet pour de meilleurs modèles d’illumination, plus sophistiqués.



Pour moi ces 8Go de VRAM ne sont pas un cache-misère mais bien une nécessité et l’annonce est une très bonne nouvelle. Et d’après les communiqués de plusieurs dévs de jeux vidéos, je ne me trompe pas.





Et puis sur PC on a l’option changement de Carte Graphique à 150€ quand il sera temps.



Tout à fait. Et ces cartes seront vite disponibles : six mois après la sortie de la PS4 les capacités de production de la GDDR5 seront dispos et feront chuter les prix.







Nithril a écrit :



Faible CPU? Il ne faut pas non plus exagérer





AMD parlait de 15% de perfs de plus que Bobcat, donc le mot “faible” est approprié.


Le 08/04/2013 à 19h 31







Alucard63 a écrit :



Si, sur console, justement c’est le cas: un certains nombre de filtres et d’effets ne sont pas fait via le GPU mais le CPU.





D’accord, visiblement ça concerne la PS3 et son Cell initialement sous-utilisé. Ce que tu dis est vraisemblable. Cela dit le cas est un peu particulier et si tu peux déporter quelques opérations ici et là vers le GPU, il y a une limite à ce qu’on peut faire et le CPU reste fondamentalement une bête très différente du GPU.


Le 08/04/2013 à 19h 21







AxelDG a écrit :



J’ai juste du mal à voir comment un console qui ne supporte le 4K que pour les vidéos va pouvoir rivaliser avec le PC qui est déjà à l’aube de passer le pas.



Pour moi, j’en reviens à la conversation que nous avions un autre soir, je ne vois pas en quoi la VRAM va solutionner toutes les contraintes de calcul dues à l’application de textures sur des modèles, aux effets physiques, à la 3D… etc etc… et le tout cumulé !

C’est comme si tu disais que de mettre 64To de RAM à un Netbook allait en faire un supercalculateur…



Bref, je demande à voir…





Tu raisonnes en termes de puissance brute. Comme si une formule 1 de 800 chevaux valait 400 deux-chevaux. Alors que les deux répondent à des problèmes différents. Avec 400 2cv je livre le courrier pour pas cher sur tout le département sous 48h, avec une F1 j’organise un service de livraison en 3h chrono sur toute la France à un prix démentiel.



De la même façon PC et PS4 ne sont pas construits de la même façon et on ne peut pas faire exactement les mêmes choses de l’une à l’autre. Mais lequel des deux est le plus gros marché ? La console, d’un facteur dix. Donc le jeu sera d’abord conçu pour la PS4. Ça ne me plaît pas non plus mais c’est la réalité.



Partant de là, le jeu est construit avec les limites matérielles de la machine en tête. Celle-ci a 8Go de VRAM, donc les scènes doivent être en-dessous de 8Go de contenus, disons 6Go. Si tu tentes de faire un rendu avec moins de VRAM que ces 6Go tu vas te heurter au goulet d’étranglement du bus PCIe (500 Mo par image) et ton framerate va être horrible. Même si la puissance de ton GPU est plus grosse : il se tournera les pouces en attendant les données ! Tu pourras toujours le gonfler, tu gagneras pas un poil de performances. Ce n’est pas que les 8Go ont augmenté la puissance de la PS4, c’est que tu ne peux pas utiliser ta puissance sans la même quantité de mémoire. Heureusement la solution est assez simple : diminuer la taille des textures.



Pour le reste, je l’ai dit ailleurs, le couple mémoire unifiée + faible processeur est un facteur d’économie, pas de performances. Mais encore une fois le dév va d’abord coder pour la PS4 et donc pour ce CPU moisi. Ça va l’obliger à faire plus de calculs sur le GPU, ce que la mémoire unifiée permet en éliminant le goulet d’étrangement. Mais si tu portes ça tel quel sur PC, à nouveau, c’est la catastrophe à cause de ce goulet ! Sur PC il faut réaliser tous les calculs sur le CPU, ce que la PS4 serait incapable de faire faute de puissance. Tout dépend donc de la qualité du portage, que ton jeu initialement développé pour PC ou pour consoles.


Le 08/04/2013 à 18h 43







AxelDG a écrit :



Par contre, je ne peux décemment pas laisser dire que les premiers jeux mettront les PC actuels à genoux.

Compte tenu de ce que l’on sait, c’est juste impensable.





La plupart des jeux PS4 seront incapables de tourner correctement sur un PC avec moins de 8Go de VRAM, du moins à qualité équivalente. Ces PC-là seront à genoux à moins d’utiliser des textures basse-résolution.



Une fois que les 8Go de VRAM seront là, tout dépendra de la qualité du portage : si les dévs reportent les calculs vers le CPU, un bon PC suivra sans problème. Mais s’ils font ça à la va-vite en gardant leurs algorithmes impliquant une communication fréquente entre CPU et GPU, ce sera la catastrophe sur PC avec le bus PCIe entre les deux.


Le 08/04/2013 à 18h 38







Alucard63 a écrit :



La PS4 est faite pour le jeu…la partie la plus importante est le GPU





Sauf qu’il ne faut pas s’y tromper : cette mémoire unifiée et ce faible CPU sont un facteur d’économie, pas de performances. La facilité à faire communiquer GPU et CPU pourrait se révéler intéressante pour quelques scénarios (*) mais la majorité du temps ce ne sera qu’un moyen de pallier à la faiblesse de ce CPU bas de gamme couplé avec sa mémoire inadaptée.



En le présentant comme un facteur de performances tu te trompes : peu importe que la PS4 soit dédiée au jeu, la GDDR handicapera le CPU. Ce choix d’une mémoire unifiée et d’un faible CPU est une décision de raison permettant de faire de jolies économies au prix d’un peu de performances.



(*) Rarement bénéficiaire pour le jeu mais plus souvent pour les calculs scientifiques ! La PS4 pourrait, comme son ancêtre, redevenir la meilleure amie de folding@home.





d’ailleurs le CPU est souvent utilisé comme GPU bis.



Non, le CPU n’est jamais utilisé comme un GPU bis, quel que soit le sens que tu veuilles donner à ça. En revanche le GPU est parfois utilisé pour soulager le CPU, mais cela ne permet pas pour autant d’en faire un CPU bis.


Le 08/04/2013 à 18h 18







Alucard63 a écrit :





  1. la bande passante de la GDDR5 est bien supérieure à n’importe quelle DDR3( 160 Gb/sc vs 17Gb/sc ) donc sur l’accès mémoire CPU la PS4 a un avantage important qui n’est pas prêt de disparaître





    C’est tout le contraire ! ^^

    La GDDR n’est pas une mémoire “magique” plus rapide que la DDR. C’est une mémoire pour laquelle on privilégie la bande passante à la latence. C’est très bien pour le GPU, pas pour le CPU. Côté CPU la PS4 est loin derrière à la ramasse et les dévs déporteront leurs calculs sur le GPU, ce qui sera assez facile grâce à la mémoire unifiée.







    AxelDG a écrit :



    La mémoire partagée CPU/GPU, ils ont déjà fait sur PC et ça n’a jamais été une grande réussite…





    Absolument rien à voir : sur PC le GPU n’accédait pas à la mémoire directement mais via le northrbidge. Latence de ouf, performances daubesques, etc. Tout le contraire ici.







    ErGo_404 a écrit :



    Normalement le GPU lui aussi est proche des GPUs de PC.





    En principe, oui, en tout cas vis-à-vis des autres cartes AMD, mais que veut dire Sony par “contrôle bas-niveau” ? Si les dévs peuvent coder le GPU en asm et compagnie, autant dire qu’à moins d’avoir exactement la même chose, il faudra plus ou moins émuler.


Le 08/04/2013 à 16h 04







pitiwazou a écrit :



J’aime bien le PDG qui dit qu’une console est compliquée à coder parce que la doc est en jap !



Ça n’a choqué personne ça ?



C’est n’importe quoi comme déclaration !





En quoi est-ce n’importe quoi ? A ton avis combien y a t-il de dévs compétents sur le marché pour programmer un jeu ? Maintenant combien parmi eux parlent couramment Japonais ? Un ? Trois ?







AngelSword a écrit :



Oui, et d’ailleurs je trouve ça surprenant que le “proco” puisse en profiter, c’est la première fois que de la ddr5 est utilisée en Ram système non ?





A vrai dire c’est mauvais pour le CPU : la bande passante est supérieure à de la DDR mais la latence est trop importante et cela ralentit la plupart des calculs. Côté CPU la PS4 sera franchement mauvaise.


Le 08/04/2013 à 15h 47







after_burner a écrit :



Il y a eu des infos comme quoi “l’environnement de développement” de la PS4 serait basé sur un win7 pro 64b, si quelqu’un dans le domaine peut nous dire quelles sont les différences entre l’OS de la console et son environnement de développement? <img data-src=" />





Ça peut vouloir dire plusieurs choses : l’environnement de développement permet-il de faire tourner les jeux avec du matos standard, ou avec un matos spécifique, ou faut-il déployer sur une PS4 spéciale ? Le terme “environnement de développement” peut englober diverses choses.



La première option paraît très improbable vu les différences d’archi et la capacité offerte aux dévs d’exercer un contrôle de bas niveau, il aurait fallu écrire un émulateur et ce serait très lent. Mais la seconde, qui sait… Ca pourrait vouloir dire que le SDK pourrait être adapté pour faire tourner les jeux PS4 sur PC pourvu que l’on ait la bonne CG, si tant est que les futures Radeon ne diffèrent pas trop de ce qu’on voit sur PS4.



Pour rappel, le CPU étant le même, pas besoin de l’émuler, un machine comme Wine suffit pour transformer les appels vers les API de Sony en appels aux API de Windows. La question est de savoir s’il faut en revanche émuler le GPU ou d’autres parties du matos.


Le 08/04/2013 à 15h 34







Reparateur a écrit :



8 giga à partager avec le pross



sur un PC c’est 8 + 2 donc 10 giga





Non, la bande passante entre RAM et CG est trop lente (500Mo par 1/60ème de seconde), tu dois avoir en VRAM tout ce qui est nécessaire au rendu d’une seule image. La RAM ne sert que pour les infos non-destinées à l’affichage et éventuellement pour stocker ce qui n’est pas encore visible. Or plusieurs jeux PS4 utiliseront vraisemblablement plus de 2Go de données par rendu.


Le 08/04/2013 à 16h 12







Reparateur a écrit :



je parle du boulot de programmeur



c’est plus facile de coder un truc avec aucune limite hardware qu’un truc avec un hardware limité



c’est une question de bon sens





Oui, développeur = programmeur.

Mais tu as toujours des limites hardware et plus celles-ci augmentent, plus les besoins augmentent. D’ailleurs c’est bien le but : faire davantage de choses.



Quelle que soit la génération, le programmeur en a bavé pour rester dans les limites rendues possibles par le matériel.


Le 08/04/2013 à 15h 05







Reparateur a écrit :



je pense que les dev ça faire passer bien plus de texture que ne peut en contenir ta CG sans que ça se mettent à ramer sévère

après c’est sur ça doit être bien plus compliqué





Les dévs sont malheureusement soumis aux lois de la physique. Il n’y a pas de solution miracle, je te le garantis. Tu peux tricher de multiples façons, notamment avec des textures et maillages basse résolution quand l’objet est vu de loin, mais tu ne peux pas faire passer plus de données que ce que la BP permet ni effectuer un rendu avec plus de données que ce que la VRAM + la BP permettent.



Et pour info je suis dév. Pas dans le JV, en revanche j’ai régulièrement eu à travailler sur des moteurs de rendu et à anticiper les limites des CG.





comme je l’ai dit + haut + de puissance et ram facilite toujours le boulot



En 2000 un bonhomme était fait de 50 polygones avec une texture. Aujourd’hui il y a des textures à foison rien que pour la peau d’un seul visage, les vêtements, les cheveux et les yeux sont des objets individuels, et chacun a un procédé de rendu, d’animation et une gestion physique différents. Pour répondre à ces défis il a fallu décupler la taille des équipes. Le boulot a t-il été facilité ? Oui par certains côtés mais par d’autres il a été complexifié.


Le 08/04/2013 à 13h 59







Reparateur a écrit :



eu dès le début je comprend pas ton raisonnement

60 ips ou 300 c’est la même

la carte vas pas loader 300 fois par seconde les texture





Bonjour.




  1. S’il n’y a pas assez de VRAM pour contenir toutes les textures nécessaires, certaines restent en RAM. Et à chaque image qu’on veut rendre il faut donc échanger des objets entre RAM et VRAM. Dans un tel cas, si, il faut alors recharger N fois par seconde les mêmes textures et autant dire que le PCIe est trop lent pour ça.



  2. Il y a aussi les chargements ponctuels : au détour d’une colline le joueur voit pour la première fois le reste du décor, celui-ci n’était pas chargé jusqu’à maintenant. Si l’envers du décor pèse plus lourd que la bande passante par image, alors il sera impossible de la charger en une 1/60ème de seconde et il y aura donc saccade.





    et certain dev comme id arrive à faire loader depuis ton DD à la CG une texture de 5 giga en streaming de manière transparente







    Reparateur a écrit :



    “Textures can measure up to 128000×128000 pixels” voilà un PC peut faire ça avec un simple pcie 8X





    128000x128000 peut sembler énorme mais ça ne l’est pas. Quelle est la résolution ? 1cm² = 1 pixel. C’est assez grossier et pourtant ça ne remplit que des niveaux de 1,28km de côté. Applique la même méthode à un Elder Scrolls et il te faudrait une texture de centaines de gigaoctets.



    Et puis une texture c’est une chose mais pour donner à n’importe quel objet une apparence potable il te faut entre 2 et 8 textures selon le type d’objet et le niveau techno du moteur



    Enfin note que le moteur d’ID a peut-être des textures de 128kx128k mais le bus PCIe ne permet pas de la charger suffisamment rapidement et la VRAM ne peut pas la contenir entièrement. Soit les reliefs de la carte ont été conçus pour éliminer les endroits depuis lesquels le nombre de textures à charger par 1/60ème de seconde deviendrait trop important (surplomb depuis lequel toute la map se dévoilerait par ex), soit des textures basses résolutions soient utilisées la plupart du temps.



    PS : Si je ne m’abuse le PCIe 2.1 n’est que deux fois plus lent que le 3x.

    PPS : on peut toujours trouver que 500Mo sont bien assez mais s’il y a 8Go de VRAM c’est bien parce que 500Mo ne sont pas énormes.


Le 05/04/2013 à 21h 05







AxelDG a écrit :



La mémoire unifiée c’est bien mais pas quand ça dure plus de 5 ans… Après t’as l’air d’un con avec ta techno de merde.





Mais si à la place ils avaient mis un CPU 30% plus puissant, ça n’aurait pas ralenti l’obsolescence, au contraire. Ce que tu reproches à Sony en fin de compte ce ne sont pas leurs choix techniques mais la durée de vie des consoles qui est liée à des raisons économiques justifiées (l’amortissement prend plusieurs années), tant pour eux que pour les éditeurs (rupture de cycle, nouveaux investissements nécessaires, etc).





Tu rêves !!!

Heureusement qu’une petite part d’éditeurs respectent encore le milieu qui les a lancés : The Witcher, Tomb Raider, Far Cry, BattleField, les jeux Blizzard, Bethesda (même s’ils filent un mauvais coton en ce moment) et bien d’autres….



The Witcher 2, le dernier Tomb Raider, Far Cry 2, le dernier Battlefield… Tous sont disponibles sur consoles et donc conçus en fonction de cette contrainte des 256 Mo. Quant à Blizzard ils portent Diablo 3 sur consoles et Project Titan est conçu avec les consoles en tête. Les jeux modernes uniquement PC sont rares et le plus petit dénominateur commun impose ses règles.





<img data-src=" /> Les 30% avec des PC de merde avec moins de 1 Go de VRAM, ce sera fait. Ces joueurs là n’acheteront pas plus de console Next Gen que de PC gamer.

C’est débile de prendre cet argument surtout si tu aimes les jeux vidéo…

A moins que tu n’aimes jouer qu’à des Angry Birds, évidemment.



On en revient aux raisons économiques : tu ne peux pas demander aux éditeurs de se priver d’un tiers du marché, donc ils font des jeux PC qui nécessitent 512 Mo de VRAM en basse résolution. Et 1Go à 2 Go en haute résolution en se contentant de doubler la taille des textures sans changer le moteur, ce qui ne change pas tant de choses en soi.



Et puis on peut aimer les jeux vidéos sans avoir 1k à claquer tous les trois ans (et je suis raisonnable). Du père de famille modeste à l’étudiant fauché en passant par l’ado moyen, c’est à chaque fois un effort important pour eux.



Le problème ne serait-il pas simplement que tu attends de Sony et des développeurs qu’ils visent uniquement des joueurs bien équipés ? Malheureusement ceux-ci ne pèsent pas assez lourd au regard des budgets modernes de développement.


Le 05/04/2013 à 20h 18







AxelDG a écrit :



mais tout ce qui concerne effets physiques, décompression vidéo (ça se voit de plus en plus), et je parle même pas du doublement de la puissance de calcul pour une éventuelle 3D, ça prend sur le GPU…





Concernant le premier point les consoles partent avec un avantage grâce à la mémoire unifiée et au fait que les dévs pourront optimiser grâce à l’homogénéité de la plateforme. Concernant le second point, osef dans un jeu et, en-dehors, il y a tout ce qu’il faut et plus encore même pour une résolution en 4K. Concernant le troisième point, la stéréoscopie, celle-ci peut être approchée sans doubler tous les calculs.



Alors, bien sûr, on a toujours besoin de plus de puissance. Mais comme il faut faire des compromis…





En ce qui me concerne, sachant que les 34 des constructeurs de CG sur PC ne montent pas au delà de 4Go de VRAM et sachant le faible prix que ça coute (y’a quand même un peu des ingénieurs chez eux aussi) je le dis et je le répète, je trouve les stats disproportionnées, oui… <img data-src=" />



Parce que la mémoire vidéo des cartes PC est taillée par rapport aux besoins des jeux PC qui sont dans 95% des cas des adaptations de jeux conçus pour les 256Mo de mémoire de la PS3. Même quand les dévs font l’effort de fournir des textures dans une résolution doublée et d’ajouter des fonctionnalités au moteur, on reste loin des besoins des jeux next-gen.



Et même pour les jeux uniquement sur PC, la premier point fait qu’aujourd’hui 30% des joueurs de Steam ont moins d’1Go de VRAM et 40% ont 1Go. Donc…

<img data-src=" />



Ce n’est donc pas que la VRAM est inutile en soi, c’est que les consoles nous bridaient. Ajouter ou refaire quelques shaders pour profiter de la puissance ne demande pas beaucoup d’efforts. Mais refaire tous les modèles et textures du jeu ainsi que le modèle d’éclairage, c’est refaire le jeu tout entier.


Le 05/04/2013 à 19h 10







AxelDG a écrit :



Les stats de la PS4 me font penser à certaines configs qu’on voit dans les supermarchés : Les éléments peu couteux (donc la RAM en ce moment) sont boostés de manière complétement disproportionnée par rapport au reste.









AxelDG a écrit :



Oui mais même la plus belle des textures n’aura un rendu crédible sur un polygone à 20 faces… <img data-src=" />





D’abord les polygones seront loin d’être à vingt faces : niveau GPU c’est une belle bête aujourd’hui. Ensuite on a besoin de mémoire pour les textures : celles qu’on voit aujourd’hui sont trop souvent moches car trop petites, on a besoin de plus en plus de couches de textures pour rendre les objets (transluminescence, déformations géométriques, etc) et on utilise de plus en plus de rendus intermédiaires pour la lumière et les ombres (occlusion, ombres, davantage de source lumineuses). Donc 8 Go de mémoire n’étaient pas du luxe ! Loin de là ! En-dessous ça aurait vraiment été décevant, c’est bien plus important qu’un GPU deux fois plus puissant.



Sans parler du fait qu’une mémoire unifiée permet de proposer un CPU plus faiblard tout en permettant de réaliser des effets de particules et de physique poussés : on réduit les coûts sans trop sacrifier les perfs (certains trucs ne seront faisables que sur PC, d’autres seulement sur consoles). Personnellement je trouve que c’est une bonne architecture.


Le 05/04/2013 à 18h 39







Reparateur a écrit :



j’comprend pas cette histoire de limite sur PC



le MEgaTexture c’est pour les cornichon?



le pcie 3.0 aussi ?



alors autant en écriture je comprend mais pour la lecture de donnée en mémoire par le GPU j’pense pas qu’il y ais de soucis pour les PC





PCIe 3.0 = 32Go/s (contre 16 pour le 2.0). Soit, à 60ips, environ 500Mo par image.





  1. Cette faible bande passante signifie que ce que tu peux dessiner à l’écran est limité par la taille de ta VRAM (mémoire vidéo) : impossible de dire au GPU d’aller à chaque image prendre les 6Go restants en RAM pour les afficher à l’écran, le PCIe est trop lent. La VRAM doit donc contenir tout ce qui est nécessaire au rendu, la RAM ne pouvant servir qu’à stocker ce qui pourrait bientôt servir, ainsi que des données non-destinées à l’affichage.



  2. Imaginons que je crée un jeu de conduite, ces 500 Mo représentent ta bande passante disponible pour ton disque dur SSD (le contrôleur SATA étant branché via PCIe), l’intégralité des données à afficher pour le vallon qui vient d’apparaître au détour de la colline (stocké en RAM si tu n’as pas 8Go de VRAM comme les consoles) et l’ensemble des échanges entre CPU et GPU (par exemple pour les effets de particule de poussière ou la déformation de la carlingue). Si ces 500 Mo sont excédés, le jeu se gèle jusqu’à ce que tout soit terminé et le joueur perçoit une saccade.



  3. La bande passante est une chose, la latence en est une autre et celle du bus PCIe est mauvaise : des dizaines à des centaines de microsecondes selon la direction. En comptant 500 microsecondes pour un aller-retour et puisque le rendu d’une image à 60ips dure 15ms, alors je peux au mieux faire 30 aller-retours de mes données entre le CPU et le GPU pour chaque image. Ça n’est en général pas très important pour les graphismes, mais ça pourrait l’être pour certains calculs complexes réalisés sur le GPU car ceux-ci ne peuvent traiter que des calculs simples et le reste doit être fait sur le CPU, ce qui nécessite des aller-retours fréquents.





    Maintenant, encore une fois, si tu as assez de VRAM (1 à 8Go selon les jeux) pour contenir tout ce qui est nécessaire à une image tu n’as pas le pb n°1. Si tu as carrément assez de VRAM pour contenir toute la scène (probablement 8Go), tu n’as donc plus que des besoins mineurs en bande passante, ce qui t’enlève aussi le pb n°2 dans 99% des cas. Reste le pb n°3 qu’on résout sur PC en faisant beaucoup plus de calculs sur le CPU vu que le nôtre est plus puissant, sauf pour les trois jeux pour lesquels ça ne sera pas possible (parce qu’ils utilisent le GPU pour des trucs cools) et ceux qui auront été adaptés avec les pieds (parce qu’ils sont édités par Bethsoft).







    AxelDG a écrit :



    C’est bien joli de stocker des Gigaoctets de super textures Ultra HD et super vite… mais si t’as pas un GPU qui arrache tout derrière pour les appliquer aux modèles 3D, ça sert vraiment à que dalle !… à part vendre… <img data-src=" />





    Augmenter la taille des textures ne demande pas plus de puissance GPU.


Le 05/04/2013 à 15h 23







AirTé a écrit :



Comparer la GDDR5 avec la DDR3 des PC actuels, c’est pas franchement ce qui se fait de mieux. De plus, sur PS4 (et sauf changement de dernière minute) la mémoire est unifiée.





J’ai expliqué dans le détail quelques messages au-dessus de celui-ci les conséquences de cette différence d’architecture. Pour les raisons que j’y ai détaillées dans bon nombre de scénarios les 8Go de GDDR5 ne seront pas plus utiles que les 2Go de GDDR5 de l’actuel haut de gamme actuelle sur PC et les 8Go de DDR3 qui vont avec. Dans les autres cas il faudra de toute façon rééchantilloner les textures sur PC.





La bande passante étant suffisamment élevée pour minimiser l’impact d’un CPU “faiblement” fréquencé.



Non ça ne pourrait pas compenser puisque la BP est très rarement une limite pour les CPU aujourd’hui. L’obstacle est bien plus souvent la latence, or celle-ci est encore pire sur la GDDR. L’un dans l’autre la PS4 est extrêmement faible côté CPU. C’est pourquoi les développeurs déporteront de nombreux calculs vers le GPU et c’est à ça que servira surtout la mémoire unifiée sur ces nouvelles consoles, du fait des fréquents aller-retours qui seront nécessaires entre CPU et GPU. La console a été conçue ainsi, ce sera parfois compliqué et limitatif mais enfin l’impact sur les coûts en vaut sans doute la chandelle.



Sur PC en revanche les calculs resteront typiquement en majorité réalisés sur le CPU sans que des aller-retours ne soient nécessaires, si bien que pour la majorité des jeux la dissociation des mémoires CPU et GPU ne sera pas un obstacle.







Reparateur a écrit :



pour moi ça veut aussi dire bande passante divisé par 2 parce qu’il faudra se la partager





Le CPU ne devrait pas peser bien lourd dans la BP.







Reparateur a écrit :



j’imagine aussi que sur PC la CG peut accéder à la mémoire centrale assé rapidement via le PCIe





Non, la latence est très importante, la BP limitée et le partage est donc parfois difficile à réaliser. Sur quelques applications, notamment de calcul pur plutôt que graphiques, c’est un obstacle important. Mais encore une fois je doute que ça compte beaucoup pour les jeux PC pour les raisons expliquées dans ma réponse à AirTé.







kirire a écrit :



Non, sur un PC à 300 euros tu ne peux pas jouer, c’est une légende urbaine ça !





Je n’ai pas dit un PC à 300€. Je me suis borné à lister quelques prix pour montrer qu’on n’a pas non plus besoin de vendre un rein. Il est évident que le jeu sur PC est plus coûteux que le jeu sur consoles, du moins si l’on n’achète un PC que pour ça.







kirire a écrit :



Et encore une fois, unifier la mémoire CPU et GPU en GDDR 5 c’est pas anodin et des jeux optimisés pour ce genre d’architecture, on risque d’avoir certaine difficulté sur ordi dans un premier temps…





Si le jeu est simplement recompilé sans aucune adaptation, ça tournera comme une bouse. Mais replacer les calculs sur le CPU est bien plus facile que de les déporter sur le GPU.





et je parle pas de puissance de calcule là, car oui ma 680 GTX est bien plus puissante que la PS4, ou xbox 3, mais il faudrait pas que ma 680 GTX soit bridé par un flux RAM -&gt; VRAM trop lent car le jeux est conçu pour 6 Go de VRAM



Comme je l’ai déjà écrit, pour certains jeux il faudra réduire la taille des textures jusqu’à ce que nous ayons des cartes à 8Go de RAM. Mais là aussi rien de très sorcier.


Le 05/04/2013 à 14h 16







Paladin_Fr a écrit :



Ouais enfin le pc haut de gamme ça coute tout de même très cher (et je parle en terme de surcout par rapport à un pc classique…)



Personnellement je ne me vois plus mettre 200 euro dans une carte graphique.

Et à 200 euro on est pas dans le haut de gamme.





Aujourd’hui tu dois pouvoir trouver la même puissance GPU que la PS4 pour 150€ seulement. La même puissance CPU coûte 100€. Rajoute 100€ pour 8Go de RAM. Et maintenant augmente le tout pour avoir un truc plus solide vu qu’à puissance égale les jeux seront plus performants sur PS4.



EDIT : Au temps pour moi, le GPU coûte plutôt dans les 300€ aujourd’hui. Bon ben attends un an.


Le 05/04/2013 à 14h 02







kirire a écrit :



mais franchement les PC actuel non plus, faut être réaliste…





Oui et non :

* Les 8Go offrent avant tout la capacité d’utiliser de plus hautes textures simultanément, tu peux toujours tout rééchantilloner à la moitié de la résolution.



* Cela dit les 8Go seront rarement utilisés simultanément et il sera plus fréquent d’avoir 2Go affichés et 6Go prêts à entrer en scène à tel point du niveau ou lors de telle anim. La RAM convient aussi bien pour ça, même pas besoin de rééchantilloner.



* Passés les 6 premiers mois de ventes toutes les capacités de production installées seront disponibles dans les usines et les prix de la GDDR5 baisseront rapidement.



* L’architecture unifiée ouvre la voix à des algos qui seraient aujourd’hui difficiles à mettre en oeuvre sur un PC du fait de la latence et de la BP. Mais enfin ça resterait assez rare ; la puissance CPU étant limitée on ne va pas gaspiller celle-ci pour faire des tonnes de rendus intermédiaires, de post-prod et compagnie. A part pour un ou deux jeux, je n’imagine pas que ça fasse grande différence.



* La puissance CPU et GPU correspondent à un PC actuel de médiocre et moyenne gamme, respectivement. En pratique cela équivaut à plus que ça grâce à l’homogénéité de la plateforme, le contrôle bas-niveau sur le GPU, la possibilité de diviser efficacement le GPU en calcul et graphismes, et autres raffinements de la PS4.



Bref, ça dépendra des jeux. Au doigt mouillé je dirais que la très grande partie tourneront bien sur un bon PC actuel à condition d’utiliser la même résolution pourrie que sur télé. Pour les autres il faudra baisser les options ou mettre à jour le PC. Enfin quelques rares curiosités dans les années à venir pourraient rester hors de portée. Mais l’un dans l’autre le PC reprendra vite le dessus.


Le 05/04/2013 à 09h 51







kirire a écrit :



The Witcher 3 sera un open world ?… Vraiment impatient de voir ce que ça va donner <img data-src=" />





Mon petit doigt me dit qu’il s’agira plus d’un monde semi-ouvert que d’un vrai monde ouvert à la Tamriel. Bref, quelque chose de tout de même plus verrouillé, ou regroupé par niveau, etc.


Le 08/04/2013 à 15h 15



La ministre met aussi en cause les contrats entre les géants du secteur en prenant cet exemple : « savez-vous qu’un titre de Johnny Hallyday vendu 0,99 E ou 1,29 E sur iTunes rapporte moins de 10 centimes à son interprète? Ce n’est pas normal ! ».



Genre le pauvre Johnny exploité, quoi. Qu’elle ne s’inquiète pas pour lui : ses avocats et son manager savent très bien ce qu’ils font et où est l’intérêt de leur client.

Le 06/04/2013 à 15h 17







moxepius a écrit :



Quel tas de préjugé…<img data-src=" />





Ce ne sont pas des préjugés, ce sont des tendances. Et elles sont justes.







moxepius a écrit :



Faut juste pas tomber malade parce qu’au US, si t’as pas de mutuelle tu meurt dans la rue





Ça, en revanche, c’est un préjugé.


Le 06/04/2013 à 14h 17

Mes deux centimes :





  1. Le crédit d’impôt est-il efficace ? Aucune idée mais c’est toujours un système de vases communicants : que détruit-on en réduisant la taille des services publics ou en taxant davantage ailleurs ?



  2. On peut réorganiser la fiscalité tant qu’on veut mais on ne fera jamais de miracles sur le niveau global de prélèvements, sauf à supprimer l’école publique, l’hôpital public, la police, etcétéra. Cette idée donne des orgasmes à certains mais ils sont une minorité.



  3. La fiscalité est une chose mais les boîtes françaises n’ont pas fait faillite, elles ont été vendues alors qu’a priori elles pouvaient tout à fait grossir. C’est peut-être parce que le dév moyen rêve davantage de week-ends sous les palmiers que de devenir simili-maître du monde dans une tour de verre à compter les milliards (les deux images sont une caricature, pas la peine de me le reprocher). Et si c’était ça la sagesse ?



  4. Parce que s’il y a bien dans notre pays ce vieux fond catholique et révolutionnaire anti-richesse (plus saillant au niveau collectif qu’individuel cependant), ainsi qu’un indécrottable pessimisme et une mésestime de notre pays, voire une haine chez certains, il y a aussi, tout simplement, un certain bon sens à privilégier d’autres choses que toujours plus d’argent et de réussite sociale (ce hochet qui fait si bien tourner le monde).



  5. N’en déplaise à certains, un type doué peut gagner beaucoup plus aux USA. En général pour un dév la somme en dollars est trois fois celle en euros. Et il se trouve que, oui, ça s’accompagne d’un plus fort pouvoir d’achat, ce qui est logique après tout : le système de solidarité, moins présent là-bas que chez nous, favorise les pauvres et défavorise les autres, c’est un peu le principe. Si bien que malgré la grande inefficience de leur système il est moins coûteux pour un dév aisé de payer des assurances privées que de payer des cotisations sociales en France (part patronale incluse). Et plus l’on gagne d’argent, plus le système américain est avantageux.








    Groumfy a écrit :

    Si les politiques laissent entrer autant de produits fabriqués dans de mauvaises conditions socio-écologiques, c’est qu’ils soutiennent les pays producteurs.




    C’est surtout qu’ils ne veulent pas que la Chine réplique en virant nos entreprises de leur pays et en nous fermant leurs frontières. Le protectionnisme, ça se joue toujours à deux.



    En revanche je reconnais que là c’est du grand n’importe quoi, que nous laissons la Chine faire tout ce qu’elle veut sans jamais répliquer, tout ça parce que l’Allemagne, elle, y a intérêt et fait blocage. Europe à la noix etcétéra.






    rsegismont a écrit :

    +1 <img data-src=" /> Jamais compris pourquoi l’impôt sur les sociétés n’était pas progressif selon le Bénéfice et la taille de l’entreprise….




    L’IR est progressif car il est moins choquant de taxer un tiers d’un yacht qu’un tiers d’un paquet de pâtes. Rien de tel pour l’IS, je ne vois aucune raison de le rendre progressif.

Le 05/04/2013 à 15h 34

Les pour et contre du jeu vidéo féminin :




  • Pour : ton siège a été préchauffé.

  • Contre : elle ne veut pas se barrer du siège.

Le 05/04/2013 à 12h 06



Chrome 27 affiche en outre de manière plus « élégante » les éléments relatifs aux dates, semaines et mois dans les champs input :



J’espère que, eux, contrairement à Microsoft dans le calendrier W8, ont localisé les dates des jours fériés et autres. Chaque fois que j’ouvre ce fichu calendrier ça me tue de voir “tax day”, “memorial day”, “flag day”, “independence day”. Foutue version bêta.





L’actualité du monde des navigateurs est particulièrement riche actuellement. Google a déjà annoncé que son Chrome n’utiliserait bientôt plus Webkit, mais Blink,



Aïe. Sale nouvelle pour Webkit.

Le 05/04/2013 à 11h 27







NeoLuxembourg a écrit :



Et si on n’utilise pas des services qui ont besoin d’un always-on, les FAI n’auront jammais de pression pour amélirer la QoS … chicken egg problem quoi!





Mon Dieu, je dois avoir quatre heures de coupure Internet par an, heureusement que Microsoft est là pour me coller des DRM afin de faire pression sur mon FAI. Fucking thank you quoi !