Exactement, c’est pour ca que les question lié à la nature des œuvres est obsolète et il s’agit d’une problématique très vieille.
Par exemple la pissotière de Duchamp qui a mis en évidence que l’Art était une notion relative, que donc tenter de qualifier une oeuvre et de le catégoriser à des fins marchande est veine.
A l’époque l’Art était clairement défini ou semblait l’être. Avec l’Art contemporain cela à fait voler en éclat certain principes bien arrêtés juridiquement parlant. En effet à l’époque seul l’Art bénéficiait de frais particulier de transport. Avec cette pissotière de Duchamp, cela à mis en évidence qu’un objet pouvait être considéré comme une oeuvre d’Art, que donc les frais de transports ne pouvait être appliqué à cette oeuvre de la même manière.
Ici la nature logiciel, oeuvre d’Art, n’ont aucun sens, car la revente est une liberté lié à l’acquisition d’un bien, qu’il soit logiciel, oeuvre d’Art, bien matériel autre, n’a aucun intérêt, car c’est la notion propriété qui de fait confère à son propriétaire son droit de revente.
Le
19/01/2017 à
16h
10
Grocell a écrit :
Le prix n’est pas lié à la production du jeu … tout les jeux sortent grosso-modo au même prix, alors que tous n’ont pas les mêmes budgets de production.
Oui, mais ce n’est pas ça que je voulais dire … je voulais dire que quand tu achètes un jeu physique tu as réellement en ta possession un produit “d’occasion” : boitier abimé, disque plus ou moins abimé selon le soin de ses précédents propriétaires …
… un jeu démat’ dont la licence est cédée n’est pas a proprement parlé “d’occasion”, il n’a pas subit de dégradation.
Je sais que le jeu, numérique, contenu sur la galette, physique, n’est lui pas plus altéré que sa version démat’ … mais la notion d’occasion se situe dans le risque que le disque soit rayé par exemple.
Si on suit complètement ta logique de demande sur le marché, un jeu qui ne perd en rien de sa valeur physique devrait voir son prix sur le marché de l’occasion coller directement au prix du neuf … ou le prix du neuf devrait se caller sur le prix de l’occaz’ …
Quel intérêt ? Tu as déjà vu des jeu dont le support disparaît en moins d’un an ?
Il y’a un petit souci d’interprétation de mes propos, j’ai peut être pas été assez clair ou approximatif sur certain termes.
1/ Quand je parle du prix, je parle de la production evidemment car c’est la principal raison qui donne le prix au jeu, cependant je n’ai pas dis que le prix était calqué sur le prix de production, je dis juste que les couts de production (+marketing) est la raison principal du prix, qu’une production AAA c’est 70€, que AA c’est 60€, que les jeux ensuite d’une certaine durée de vie ou projet un peu plus petit sont souvent pricé à 30€, c’est donc corrélé avec la valeur ajouté du titre, lié au cout de production du titre, ca n’était pas à prendre au pied de la lettre.
2/ Justement non, le prix d’un occasion n’est pas du tout lié à l’intégrité de la galette, de la boite, mais à la simple dépréciation dans le temps de la demande, c’est justement pour cette raison que l’on voit des jeux qui cartonne avoir de l’occasion pratiquement au prix du neuf.
3/ Quand je parlais de support, je parlais par opposition au support physique (galette) au support dématérialisé (cable internet, serveur Sony) pour faire le parallèle et exprimer le fait que acheter du dématérialisé ne peut pas s’apparenter à une acquisition total du bien comme pour le physique car le dématérialisé sous entendu un support dématérialisé lié aux serveurs de Sony, à un service.
Cette dématérialisation génère un lien (en l’état, dans son fonctionnement actuel) incassable entre l’acheteur et le constructeur/éditeur, puisque c’est qu’une copie dématérialisé, qu’il n’est pas question de revendre la copie mais le droit d’accès à ce jeu (maintenu par le serveur encore une fois).
Le
19/01/2017 à
15h
46
Dans mes commentaires je dis justement ce que tu dis, la dépréciation d’un bien immatériel est du au marcher, à la demande et au simple fait déja d’acquérir le bien.
La seule difference avec un bien dématérialisé c’est que la galette est un moyen de pleine autonomie vis à vis de l’editeur, du constructeur, du studio. Que revendre un bien que l’on possède et qui n’entretient aucun lien avec le constructeur permet de décider soit même à qui le vendre et comment, ce qui n’est dans notre situation pas encore possible bien que techniquement et juridiquement cela soit possible.
Dans le commentaire que tu cite, je précisais simplement que ce lien dont je parle est encore maintenu dans le cadre de la copie dématerialisé car lié à un service en ligne, la valeur du jeu acheté est localisé sur le disque, mais la licence en réalité est donné par le serveur, c’est le problème du dématérialisé, tu ne peux revendre ta copie à toi que tu es en train d’utiliser (en l’état), sauf si Sony met en place un système, une platforme qui va permettre de partager ta copie via le réseau sans avoir à retélécharger le jeu pour l’autre client (ce qui revient en fait à donner gratuitement le bien).
Le
19/01/2017 à
14h
01
Merde y’a un commentaire qui n’est pas passé :( bien argumenté.
En gros quand Sony donne la possibilité aux joueurs de télécharger le jeu sur leur platforme, ce stock virtuel est un droit d’accès au téléchargement d’une copie du jeu, la revente signifie autoriser une tiers personne à télécharger un jeu que la personne qui vend ne possède pas literralement, car la personne qui achète n’aura pas la copie du joueur du départ mais celle que Sony propose sur la platforme de téléchargement.
C’est donc un problème de moyen d’accès au contenu.
C’est exactement le même problème que lorsque vous achetez sur fnac le site et fnac physique.
Si vous avez des prix sur le site de fnac, les stocks sont ceux négociés pour faire des marges, donc vous ne pouvez pas utiliser les stock en magasin qui sont d’autre stock bien spécifiques.
Le
19/01/2017 à
13h
45
J’ai pas du être assez clair je pense dans mon explication.
Quand tu achète un jeu physique, la galette est le support de l’information, tu as payé pour la galette et le droit d’utiliser la propriété intellectuel détenue par Sony et son studio. De fait la galette et le jeu t’appartienne, tu peux le revendre.
Dans le cas d’un jeu dématérialisé, tu as utilisé un support dématérialisé (en vérité il s’agit d’un flux temporaire d’accès considéré comme support de l’information) à savoir un service qui permet de délivrer le jeu à télécharger.
Si le joueur ne veut plus ce jeu dématérialiser, il ne va pas vendre celui présent sur son disque, mais le joueur va donner la possibilité à un autre d’acheter pour moins cher un jeu en réalité présent sur les serveurs de Sony qui “neuf” est au prix fort, donc ça revient à appliquer un rabais sur un jeu qui n’a en fait pas été déprécié par l’utilisation ou l’action d’acheter d’un autre autre joueur.
Le
19/01/2017 à
13h
03
Ca revient à la même chose, puisque ca sous entend utiliser les services de téléchargement de la platforme, donc générer un traffic sur un jeu qu’ils ont déja vendu, ils accepteront pas d’user potentiellement cette situation, qu’ils vont considérer coûteuse, à raison d’un certain point de vue.
y’a des solutions à ce problème.
Le
19/01/2017 à
12h
20
L’usure du support n’a rien à voir avec l’oeuvre en elle même preuve en est le prix, le prix est lié à la production du jeux pas au prix de la galette.
L’usure d’une galette, n’est pas l’usure de l’oeuvre, la preuve le prix ne diminue pas fonction de l’état de la galette mais selon la demande du titre sur le marcher.
Le support justement tu t’en contre fou sur du dématérialisé, la seule chose que ça implique en terme législatif, c’est que en dématérialisé tu demande implicitement que le sysème nécessaire à l’accès au jeu dématérialisé soit toujours disponible pour celui qui souhaite l’acheter d’occasion le jour ou le premier acheteur souhaite s’en séparer. La galette n’a donc pas une valeur en soit, mais permet d’avoir une autonomie total de l’acheteur vis à vis du vendeur.
> La solution est donc d’apporter au niveau législatif, une garantie constructeur sur le maintient de la platforme nécessaire au téléchargement du jeu pendant au moins 1 an consécutivement à sa sortie.
Le
19/01/2017 à
09h
55
Je suis pour la capacité de revente d’un jeu dématérialisé.
La matérialisation d’une oeuvre n’est pas transmise uniquement à travers son support, mais par son expression, règle de base de l’Art.
La plus valus n’est pas non plus lié à son support dans le cadre du jeux vidéo (ça peut être par contre lié à son packaging, au contenu).
Dans le cadre de l’occasion la valeur du jeu diminue ou augmente du fait de la demande, de sa dégradation ou de son maintient dans le temps.
Le support n’est qu’un moyen de lire l’oeuvre, sa dégradation n’est pas soumise donc à la diminution de la valeur de l’oeuvre, sauf dans le cas de la “collection” d’oeuvre d’Art.
En droit tout bien acquis par son propriétaire peut jouir de ce bien, il en a l’usufruit. Il peut le détruire s’il le souhaite.
Dématérialisé, le jeu vidéo reste la propriété du joueur, sur un bien qu’il a aussi acheté, le disque dur représente le support.
Le
19/01/2017 à
09h
44
C’est avec ce genre de discours que nous somme dans cette situation, être passif, n’a jamais fait qu’agraver la situation.
Moi je pense totalement l’opposé. Que c’est justement notre immobilisme et notre propension à se laisser gouverner par une caste qu’on arrive à devenir si faible et manipulable. Que l’on arrive à laisser les politiques tordre nos droits et notre relative motivation à faire changer les choses d’un revers de main, de mots, de 49.3
Oui mais ca reste un projet qui coule et un triple A. C’est pas rien.
Le
10/01/2017 à
12h
38
Le problème dans ce genre de projets, c’est que Microsoft a fait une commande auprès de ce studio, la pré-prod a été ecourté pour les objectifs de MS, du coup ca produit des jeux à la DA douteuse, aux mécanique de gameplay approximatives pourtant le point fort de ce studio.
Ce jeu n’est pas inspiré et pourtant c’est un AAA avec 100 personnes (ce qui est relativement peu en fait). Mais ca va faire mal à ce studio car ca reste un gros budget, ils n’ont pas les reins assez solides pour supporter cette déconvenue.
Moi j’ai surtout vent que Microsoft ont sous payé les équipes, changé les objectifs du studio constamment, n’ont pas laissé les latitudes aux studios et développeurs pour faire le jeu.
Microsoft huile bien sa communication, mais derrière c’est quand même un studio qui a montré sa capacité à sortir des choses de qualité et dans les temps, donc je crois d’avantage ce qui se dit sur NEOGAF concernant les bruits de couloirs qu’une communication officielle de Microsoft qui nous a habitué à mal géré depuis trop longtemps mainteant ses projets sur le long terme.
le management de Microsoft est juste une catastrophe, un article pondu sur FF7 y’a pas longtemps disait la même chose en parlant des équipes de Square qui avaient déja eu l’occasion de bossé avec Microsoft.
Le
10/01/2017 à
10h
44
Ce marcher n’a jamais été autant fleurissant depuis l’air 90 avec les studios comme Adeline.
y’a un nombre incroyable de jeux vidéo à jouer c’est pas pour rien que la PS4 cartonne plus que la PS2 en son temps et on parle de vente pas de console distribués.
Oui, sauf qu’elle se confronte à la logique commerciale qui est basé sur la demande et sur la propriété.
Après tout un ayant droit doit pouvoir trouver un moyen pour être rémunéré et continuer à créer. Tu peux pas créer des œuvres sans avoir les moyens de le faire. Si tu diminue cette capacité tu diminue d’autant la création.
C’est un concept simple.
La copie évidemment qu’en soit ca n’a jamais rien fait de mal, sauf dans nos sociétés basé sur la propriété.
Ahahaha, ces features sont des demandes côté Sony pas du tout des features implémenté côté AMD ou prévu dans leur roadmap au départ, donc non ca n’est pas du charabiat marketeux, c’est juste ce qui a été apporté comme information par Cerny, un mec qui n’est qu’un ingénieur reconnu mondialement, le mec qui ta fait une conférence insipide car ce mec ne s’intéresse qu’à l’aspect hardware des machines qu’il s’occupe, ces propos n’ont pas porté à vendre, ce sont juste des informations que tu peux avoir en lisant une interview sérieuse faite par un site sérieux point barre, la preuve cette info n’a pas transité autre part, car tout le monde s’en cogne apparement de ce genre de détails pourtant très intéressant pour les développeurs.
Bref, le marketing à bon dos et ces features ont tout à fait leur place.
Le
10/11/2016 à
17h
54
Y’a plusieurs techniques, un vrai bon motion blur y’en a peu qui sont en fonction de la caméra et qui calcule parfaitement bien les déplacement des objets.
Le
10/11/2016 à
16h
11
Si tu t’intéresses strictement au fps ca n’a pas de sens, si tu ne t’intéresse pas au motion blur.
Des jeux avec 60fps oui c’est globalement mieux, mais des jeux en 30fps avec motion blur (gestion du mouvement par compensation avec effet de flou) et bien c’est kif kif.
Le
10/11/2016 à
15h
41
Comme je disais la génération précédente a apporté pleins d’améliorations, sur le son, sur la physique, sur l’ia, pas mal de domaine qui n’existait pas ou trop peu développé.
Cette génération à donc couté énormement d’argent et fait du jeux vidéo une industrie qui s’est rapproché plus que jamais de celui du cinéma avec des équipes qui ont enflé, les 3⁄4 des studios ont du agrandir leurs équipes, leurs équipements, motion capture, acteurs, script, les shaders qui ont explosé en 2005-2007 sur console avec les consoles de nouvelles générations ont fait que le marcher à explosé à bien des égards je n’invente pas, cette génération a donc apporté son lot de problèmes pour les studios, ca n’est pas pour rien que pendant 2 ans les jeux ont mis un temps fou avant de sortir plus que jamais par rapport au autres générations de consoles.
Je n’ai plus les chiffres mais l’impacte a été monstrueux. Le meilleur exemple c’est la délocalisation des studios du Japon vers les US, l’emergence des studios des pays de l’est qui ont pu faire parler avec le cout des développeurs diablement moins importants leur talent face aux studios qui ont souffert de cette transition brutale.
Ca a permis evidement de rendre plus professionnelle que jamais l’industrie et les métiers du jeux vidéo, mais ca manqué de peu de voir les consoles disparaitre. je vais pas refaire toute l’Histoire mais ce que je dis d’autres en ont déja parlé avant moi, je n’invente rien, mais on s’éloigne du sujet.
Le
10/11/2016 à
14h
43
Je pourrais avoir l’argumentation totalement inverse suite à la génération précédente qui a bien failli faire crever les consoles.
A faire durer trop les consoles à vouloir trop de puissance d’un coup pour voir justement à l’écran un écart NEs / Neo Geo, c’était les consoles qui allaient crever pour de bon.
Le cycle en transition évite d’avoir des studios comme sous la précédente génération devant faire des addaptations très importantes, ca n’est d’ailleurs pas pour rien qu’on a vu mourri tour à tour bon nombres de studios et de projets pour des raisons de couts, suite à la réorganisation et une redistribution de l’échiquier.
Ce genre de paris de risques, l’industrie du jeux vidéo ne peut plus le prendre. Faire evoluer une architecture plus fréquemment, proposer des projets à taille humaine plus fréquemment, c’est s’assurer un avenir.
Mais là on commence à parler de stratégie et d’avenir, bon on y est forcé du fait d’une industrie qui a pris de plein fouet la crise économique et les avancés technologiques qui ont pris un sacré coup derrière la tête et fait ralentir toute l’industrie.
Les cycles se raccourcissent donc du fait des avancés qui sont de plus en plus longue à venir et de plus en plus dur à satisfaire tant pratiquement il faut une puissance au carré pour apporté d’un point de vue visuel ce que l’on veut d’un système qui évolue comme tu le dis si bien.
C’est la principale raison pour laquelle d’ailleurs les optimisations, les progrès en programmation ont explosé depuis cette crise technologique et que des méthodes ont été développés ou amélioré en terme d’impact sur les ressources (oversampling, l’AA, compression, pipeline et autres moteurs de moins en moins gourmands en ressources).
Le
10/11/2016 à
14h
21
Ecoute j’invente rien, ca s’appelle évoluer, apprendre, communiquer, tous les jours ca arrive en Science, en économie, à ton travail qu’un collègue à toi ai travaillé sur un truc qui n’avait semble t’il aucun débouché et qui pourtant par retour d’experience vous a donné pour d’autres projets plus récent et plus porteur de nouvelles approches.
Que le Cell et la PS3 ai été déja en retard à sa sortie ne change en rien le fait que les difficultés rencontrés ont permis ensuite aux autres d’en bénéficié. Y’a aucun mind fuck là.
Les PC ont toujours été plus puissants que les consoles d’un point de vue puissance brut, la courbe de progression ne change rien au fait que ca a facilité les choses d’avoir eu une PS3 qui a été au centre du developpement des jeux vidéo et qui a été bénéfique ensuite sur PC dans le cadre des multiplatformes aussi.
Ca n’a rien de fou, juste c’est arrivé.
Le
10/11/2016 à
14h
07
Encore une fois j’insiste, le Cell a débouché sur des choix architecturaux suite aux problèmes connu par Sony sur sa PS3. Je n’ai pas dis que le Cell avait débouché sur une autre archi powerpc plus performante.
Le Cell a mobilisé d’importantes ressources pour les jeux vidéos, les procédes de fabrication des jeux ont du évoluer et avec apportés de nouvelles approches pour les architectures plus classiques c’est tout ce que je dis en fait.
Les améliorations hardware sont donc bien du à une experience sur le Cell, qui ont permis des optimisations sur les archi plus classique (je commence à me répéter :)
Le
10/11/2016 à
14h
04
Pas de soucis, enfin bref tout ca pour dire que j’ai jamasi dis que Sony était le génie de l’informatique, j’étais juste surpris de voir qu’on faisait un peu vite le tour de la question quand aux possibilités offerte par la machine sur un site internet censer nous apporter certaines notions, passer à travers certaines evidences que n’importe quel internaute aurait pu écrire en allant sur internet et estampiller l’article “Nextinpact” avec le sous titre et la pointe d’humour qui va avec.
Je voulait juste exprimer ca, évidemment je suis obstiné et consciencieux, j’apprécie pouvoir donner mon point de vue et m’assurer que les gens ont pas mal interprété, malheureusement on est vite pris pour un fanboy alors qu’à la base on veut juste partager quelque chose sans que cela ne soit pris pour autre chose qu’une information gratos que l’on donne. Après j’admets que je viens rarement ici pour aller dans le sens de la masse, j’aime titiller un peu les pcistes de tout poils.
Le
10/11/2016 à
13h
59
J’ai du temps libre aujourd’hui dans mon taff " />
Mais non, pour te répondre, j’exprimais juste une chose simple pour un peu contrarier les evidences, il me semble evident ensuite que je réponde aux gens qui m’écrive vis à vis de ce que j’ai pu écrire.
C’est tout.
Le
10/11/2016 à
13h
57
C’est bien ce que je dis tu ne lis pas ce que j’ai écrit.
Les features dont j’ai parlé viennent de Sony et plus particulièrment Mark Cerny, pas de la R&D de AMD, AMD eux même ont spécifié que leur roadmap avait été modifié en terme de features suite au partenariat avec Sony indirectement, donc non je ne suis pas d’accord quand tu dis que l’architecture à pas bougé, pour le reste je suis d’accord maintenant le principal travail a été fait, c’est plus au niveau moteur, software globalement que les optimisations ont été réalisé, il n’empêche que ça évolue toujours.
Pour finir, tous les jours en laboratoire, des tas de protocoles de tests aboutisse à des améliorations pour d’autres protocoles pourtant radicalement contraire. Ca n’est pas parcque l’architecture powerpc n’est plus que les moyens qui ont été mis en jeu pour contourner ses manquements, qu’ils n’ont pas été réutilisé pour les architectures plus classique, c’est justement mon propos.
Le
10/11/2016 à
13h
51
Mais moi je m’en fou de ce que Sony dit ou l’article, je dis simplement que si on est honnête en rebondissant sur ce qui a été dit dans l’article et au moins autant dans les commentaires, la console apporte bien plus que les gens veulent bien nous faire croire c’est tout. A aucun moment j’ai parlé de 4K 60fps, même sur PC tu n’as pas ca, déja faire tourner un jeu en 30fps en 1800p + ultra c’est rare alors j’allais certainement pas parler des consoles dans ce domaine.
Le
10/11/2016 à
13h
49
Encore une fois le malentendu vient du fait que je n’ai pas dis que la PS4 pro a été taillé pour du 4K natif et ca se voit dans ses choix niveau hardware pour l’oversampling, l’upscaling, mais comme je dis on arrive à de bon résultats, car y’a de réel optimisations de faites.
Le
10/11/2016 à
13h
47
C’est complètement faux, puisque des améliorations au niveau architectural ont été directement déduite de ce passif, aussi bien d’ailleurs en terme de développement pur.
Bref, quand on répond, c’est bien aussi de lire ce qui a déjà été écrit.
Le
10/11/2016 à
13h
44
je n’ai pas dis que le Cell était bien, j’ai simplement dit qu’il a permis d’apporter dans le cadre du partenariat Sony/AMD de faire des choix suite à des retours d’experience.
Si c’était si facile de faire ca, pourquoi les autres concurrent n’y ont pas pensé hein ? Si c’étai si facile de voir des GPU calculer 2 x INT16 / 2 x FP16 pourquoi personne ne la intégré plutot ailleurs ? Sur PC les développeurs le demande depuis des années.
Le
10/11/2016 à
13h
41
J’utilise pas le multiquoat, du coup j’ai l’air de flooder, la vérité c’est que j’etaye mes propos, j’essaie de prendre mon temps pour répondre à certain là ou je pense que ça mérite d’éclaircir les choses alors que trop souvent vous êtes dans votre zone de confort.
Au départ je déplorais simplement le fait que la console soit présenté comme un simple upgrade hardware basique alors qu’en vérité y’a eu du taff derrière et pas juste je me gratte la bidoche et je décide de rajouter ça, ça ou ça, car ça ferait bien car j’ai besoin d’acheteurs pour Noel comme certain se plaisent à le croire.
Non y’a eu du travail, et je me devais simplement de le rappeler c’est tout même si l’audience n’apprécie pas.
Mais bon sur Nextinpact je commence à avoir l’habitude avec ses lecteurs très orientés, je finirais par une petite phrase bien sérieuse :
“Ce n’est pas ce que tu ne sais pas qui te fait peur, mais c’est ce que tu penses savoir avec certitude et qui ne l’est pas.”
Le
10/11/2016 à
13h
33
Je parle d’optimisation hardware pas de concept. J’ai jamais dis que sur PC ca n’avait jamais été théorisé, c’est juste que sur console il a fallu les implémenter car l’environnement le permet.
Le
10/11/2016 à
13h
31
Quand je parle de processeur unit, je parle des SPE et PPE du Cell, ces unités qui au sein d’un PPE doivent être hiérarchisé dans les taches a effectué, cela à complètement modifié l’approche des caches et l’optimisation des pipelines, il ne s’agit pas donc de simple processeurs physiques parallélisés.
Le
10/11/2016 à
13h
27
Sur console tu as des exigences en terme de tour, tu peux pas lancer des pipelines de rendu etc sans optimiser et surtout t’assurer que y’a une synchronisation parfaite entre ce qui arrive, ce qui est calculé et ce qui est rendu, d’avoir un bus qui te permette de faire transiter du CPU/GPU à un bon débit à la volé sans gêner tes pipeline en cours et bien tu peux t’assurer cette synchronisation, cette continuité sans surcharger les caches notamment au niveau du GPU.
Le
10/11/2016 à
13h
18
C’est le problème des pcistes ils comprennent pas que les consoles apportent de véritable expertises.
Quand le Cell est sortie, pratiquement aucun moteur ne savait intégrer et optimiser leurs codes sur des processeurs unit parallélisés.
Face à la difficulté et la mutalisation des efforts, y’a vraiment eu de grosses avancés en terme de développement dans ce domaine, l’approche à beaucoup changé depuis, et l’architecture particulièrement “pain in the ass” de la pS3 a vraiment changé la donne à bien des égards et permis même aux autres concurrents d’en bénéficié pareil sur PC. Beaucoup sous estime ce fait là, ca vous semble aujourd’hui banal.
L’expertise, l’experience acquise sur ce genre de processeur exotique à vraiment fait avancer certaines choses dont j’ai parlé d’ailleurs précédemment.
En ce qui concerne AMD, ils ont bénéficié du partenariat avec Sony dans ce domaine avec le retour d’experience et surtout sur demande de Sony ils ont apportés des features auquels ils n’avaient jusqu’à l’or jamais pensé ou travaillé car jusqu’à mainteannt AMD travaillait sur PC pratiquement exclusivement.
Vous êtes surtout pas du tout au fait de comment les consoles fonctionne et comment la mentalité est autrement differente même dans le développement. Les créateurs partagent énormement entre les studios et ca me semble tout à fait logique qu’il en soit ainsi entre partenaire sur l’aspect hardware.
Ca vous échappe, mais c’est pourtant comme ca que ca se passe.
Le
10/11/2016 à
13h
09
Relis ce que j’ai écris plus haut, j’ai fait la liste des optimisatons faite sur la PS4 pro, c’est loin d’être anodin et être comme tu dis juste “un seul pauvre Go de RAM en +”.
Ensuite pour répondre à ce que tu dis sur le cycle de vie des consoles, à mon avis tu oublie quelque chose.
La PS4 Pro n’est pas une nouvelle console, en ce sens qu’elle n’apporte pas un nouvel ecosystème, elle s’intègre complètement dans ce qu’offre la PS4, même OS, même philosophie architecture, même développement puisque c’est la PS4 qui est le target de développement. La PS4 Pro apporte de très belles optimisations, pas juste de la puissance brut. Donc la courbe de progression dont tu parle sur console n’existe pas avec la PS4 Pro.
Quand tu comprends ca, tu comprends que la PS4 pro au contraire est une machine qui fait durer encore lpus longtemps la PS4, c’est donc pas une machine qui à vocation à vendre du rêve marketingement parlant, mais permettre aux joueurs exigent d’avoir accès à un surplus de puissance sans de gros surcout pour les studios (pas besoin de revoir le moteur profondément, les optimisations sont rapidement ajustables car inclus dans le hardware, ca n’est pas une question de software just de choix).
Le
10/11/2016 à
12h
48
Un système à 3000 $ contient forcemment du SLI de GPU et un processeur capable de le faire tourner, la finesse de gravure n’explique pas tout, tu consomme en watt forcemment plus et j’étais en plus ironique, je n’imagine pas qu’un PC puisse consommer plus de 1500 watt pour le gaming même un quad SLI, surtout à l’air du SSD.
Le
10/11/2016 à
12h
44
Les optimisations hardware et performances marginal ?
Vous êtes un peu perdu les gars. Tu sais que le bus dont j’ai parlé plus haut qui permet d’accéder à la mémoire et by passe les cache GPU pour faire certaines opérations est un bus purement et simplement qui n’existe pas sur PC et qui permet d’avoir des débits de 20Gb/s soit l’équivalent en terme de performance du bus utilisé par le PCExpress, donc quand tu plug ton GPU, tu es bien content d’avoir un bus qui joue un role senser être primordial pour ton système, pourtant les PCistes sont les premiers à réclamer que les normes sur les bus évolue le plus vite possible pour ne pas être limité en débit.
Alors pourquoi quand un bus additionnel par exemple (ca n’est qu’un exemple parmis d’autres optimisation) aussi interessant il deviendrait subitement marginal en terme d’impact performance ?
Le
10/11/2016 à
12h
34
Il faut comprendre une chose.
L’architecture est differente sur console pour une raison simple, tu dois créer un hardware capable de tenir suffisamment la durée.
Depuis l’existence des consoles ce qui avait le plus évolué c’était le hardware, depuis la précédente génération de console, c’est la facon de créer les jeux vidéos qui ont permis d’apporter ce surplus d’optimisation pour ne pas être largué et apporter une constante amélioration.
Ensuite quand tu comprends que l’architecture dure 3 à 5 ans, tu comprends d’emblée pourquoi un ecosystème peut avoir un cycle plus court tout en aillant les avantages des consoles puisque il conserve la même logique de création, de production, d’accompagnement dans le développement.
La Ps4 pro est une Ps4 avec des optimisations pour sa propre durée de vie sans avoir un gap technologique trop important qui générerait des problématique autant techniquement, budgétairement que marketingement parlant. Mais elle partage le même ecosystème, et en vérité la PS4 pro ne fait que perdurer un écosystème plus longtemps encore.
Enfin, le développement qui est le plus important est PS4 centrique, ca veut dire que la PS4 pro n’est pas une console à par entière, n’a pas vocation à remplacer une console existante. Sur PC tu as pour chaque utilisateur un ordinateur different avec un GPU / CPU / mémoire differentes. Tu ne peux pas au niveau hardware optimiser les ressources pour atteindre des objectifs car sur console le hardware est pensé autant que le développement (je parle des first party et des talentueux third party).
Le
10/11/2016 à
12h
22
Quand on a un hardware qui coute 2000$ que ton jeu l’exploite à 50% de ses capacités, je crois qu’en terme de marketing tu es mal placé. " />
Et le département marketing de Sony doit être particulièrement mauvais si les sites spécialisés hardware majoritairement n’en parle pas.
Le
10/11/2016 à
12h
21
Mais c’est pas le cas non plus PC monsieur je bombe le torse.
Y’a des optimisations faite sur console et des concessions aussi, c’est du upscaling souvent, avec justement des méthodes interne pour optimiser cette approche sans avoir à consommer trop de puissance et en ayant un résulta très proche du 4k natif.
Tu sais sur console tu n’as pas le choix, les contraintes hardwares en terme de puissance pure, t’oblige à revoir tes méthodes, à quoi bon se targuer sur PC de pouvoir faire tourner n’importe quel jeu en 4k natif si ce n’est dire que tu as réussi à consommer tout l’energie de ton quartier, que tu as réussi à faire du natif et dépenser 3000\( pour un truc qui peut pratiquement tourné en l'état mais sur un système à 400\) ? C’est ça la différence mec, c’est que ton blabla te sauve pas de ton ignorance.
Tu es au courant que les décors à Holywood sont des fakes ? Je vais même te faire une révélation, c’est de l’image de synthèse " />
Le
10/11/2016 à
12h
15
La PS4 Pro sort justement pour profiter de la révolution au niveau architecturale de la mémoire HBM 2⁄3 en 2018-2020 pour les CPU / GPU. Donc complètement cohérent.
En plus on s’affranchi de plus en plus du physique, un lecteur bluray n’a plus de sens quand tout sera par internet.
Le
10/11/2016 à
12h
08
C’est triste pareil méconnaissance. Je sais que vous n’y êtes pas habitué les pcistes à l’optimisation mais quand même ouvrez vos chakra " />
Le
10/11/2016 à
11h
51
Non ca n’est pas du bullshit juste parceque tu le dis, ca reste toujours vrai et les architectures restent differentes en beaucoups de points, mais si tu fais ce constat, je déployerais plus d’energie à essayer de t’expliquer que toi à essayer d’admettre que ca peut être vrai.
Le
10/11/2016 à
10h
46
C’est dommage que pour un site d’information de qualité comme Nextinpact vous oubliez de mentionner ce qui fait de cette console un vrai atout pour le développement dans les jeux vidéos même par rapport à sa grande soeur la PS4.
Cerny qui a architecturé cette console a décider d'apporter conjointement avec AMD d'autres améliorations que la PS4 n'a pas eu le temps d'intégrer.
Ils ont en plus d'une simple augmentation de la puissance brut de calcule comme ça se fait fréquemment dans le monde PC, voici les features rajoutés qui n'existent pas encore dans le monde PC (majorité):
1- Apport de la double computation sur des nombres entiers ET à virgules en 16 bits en même temps ), contrairement aux GPU actuels qui font soit du 32bits ou du 16bits en simple OU double précisions.
Les rares GPU qui sont capables de ça coûtent 9000 $, ça permet un gain de puissance significatifs et optimiser les opérations dans les pipes, ca fait grimper le GPU à 8 Teraflops de puissance de calcule. Je peux vous dire que les calculs en double précisions sont très coûteux en puissance (par exemple la physique dans les jeux vidéo), ça évite aussi d'avoir à augmenter bêtement la mémoire vive du système, puisque de toute façon les opérations à réalisés et inscri dans les registres sont moins sollicités.
2- Optimisation du cerveau et de la répartitions des charges sur les calcules géométriques complexes tel qu'utilisé pour la tesselation. Cette feature apporte une brique dans le travail de subdivision post calcule GPU pour améliorer la vitesse de rendu des scènes complexes. Gestion aussi plus poussé de la répartition de charge sur les 64 sources de calcules supporté par le GPU notamment la gestion des opérations asynchrones (compute et graphics).
3- Intégration d'un bus haut débit (20Gb/s) au niveau du GPU, qui permet de "by passe" la mémoire cache L1 et L2 et accéder directement en écriture et en lecture à la mémoire système. Ca evite des problèmes de synchronisation lorsque des opérations d'un certain volume transitent entre le CPU / GPU.
4- Ils ont aussi ajouté un tag "volatil bit" qui permet de bien mieux gérer, notamment quand des opérations graphics utilisent le cache L2, de ne pas impacter les performances lorsque des opérations de "compute" sont en cours sur le GPU en même temps.
5- Intégration d'un buffer id, qui permet de connaitre à tout moment le nombre de triangle calculé par le GPU, l'objet id ainsi que sa coordonné à tout moment dans l'espace une fois crée, primordiale pour apporter des optimisations sur la résolution des textures et le "temporal AA" notamment.
Voilà en gros. Donc ca me fait juste rire quand je vois les pcistes ne pas avoir leur dose de Terflop ou autre chiffre que les optimisations hardware ne montre pas et ne suffisent pas à expliquer.
Y’a de véritables améliorations, qui vont vraiment permettre de profiter de cette PS4 Pro, les développeurs vont vite s’en rendre compte pour les prochains jeux, du coup on comprend pourquoi la 4K non natif en oversampling sur Ps4 Pro, le hardware va dans ce sens et est possible.
Encore une recommandation du MEDEF que les politiques s’empressent de vouloir faire voter ?
Je peux vous dire que tous les gens qui bossent dans la communication et l’événementiel en générale vont l’avoir mauvaise. Déjà que leur patron leurs mettent déjà la pression pour bosser chez eux quand ils sont en arrêts maladie sous la pression des clients et celle de la hiérarchie, je peux vous dire que ce truc va légaliser l’esclavagisme.
Les horaires de bureau ne sont déjà plus respectés, les téléphones portables ont déjà augmenter les amplitudes horaires de travail de manière illégale et générer énormément de stress et de cas graves d’harcèlements, si en plus ils veulent légaliser le télétravail en période d’arrêt maladie, ca deviendrait n’importe quoi.
Qu’ils s’occupent déjà de faire en sorte que le télétravail soit démocratiser quand il peut l’être, que l’on change notre façon de travailler, que cela ne soit plus lié seulement à une présence bête et méchante en entreprise. Le reste c’est du productivisme primaire et effrayant. Avoir la possibilité de bosser alors que l’on est en arrêt, ça se fait déjà, ça s’appel ne pas envoyer son arrêt et s’entendre avec son patron (jambe cassé par exemple).
Pour le reste encore une fois ça dépend du médecin, de la qualification de l’arrêt, par définition un arrêt est justifié et un arrêt c’est du repos forcé pour permettre à une personne en arrêt de remettre de sa maladie ou de son accident, l’empêchant d’aller sur son lieu de travail (contamination, impossibilité de travail car trop faibles, peut importe) ou le restreindre à tout déplacement en dehors du travail comme c’est déja spécifié dans les arrêts.
Encore un faux débat selon moi qui n’est lié qu’au travail qu’est sensé réaliser le médecin et la conscience morale du patient.
Si tu utilise l’écran de ton PC, ça me semble normal de brancher la manette à ton unité non ?
Cette fonctionnalité sert de dépannage pour jouer, si jamais la Télévision était dans le cas d’un espace de vie familiale, avec ton PC.
Comme d’habitude, les gens trolls à fond. Les gens juge ce que Microsoft à fait avec sa XONE, mais faut’il rappeler que ce feature n’est qu’un ajout parmi d’autre, qu’évidemment la compatibilité, les performances s’améliorerons avec le temps.
On juge une stratégie casual de Microsoft qui a pensé son produit ainsi avec une feature centrale à la vie de la console, et un concurrent qui a pensé sa console pour le jeu avant tout, encore heureux que le système de streaming pensé au lancement de la console Microsoft se débrouille mieux.
On peut pas demander à des gars travaillant sur du matos PC de comprendre.
C’est un peu le débat depuis les années 80. Peut importe qu’une console soit 10 fois moins puissante qu’un PC, le fait que les constructeurs de consoles donnent accès à tous les outils permettant d’optimiser les performances sur ce système fermé fera que les pcistes comprendrons jamais que c’est pas au provider de moteur de rendre la VR viable ou aux constructeurs de matos non plus avec des caractéristiques ultra alléchante, mais à ceux qui mettent les mains dans le cambouis et qui ont accès aux entrailles du hardware pour y arriver.
Le
20/03/2016 à
02h
28
Faire un caca ne sert à rien surtout quand on dit de la merde.
Les produits à l’arrache ? Ca fait 3 ans que Sony fait de la R&D sur le PSVR, un peu de respect surtout quand les differents acteurs on enfin compris qu’il fallait une technologie mature et du support software pour créer un marcher.
Nintendo avait jetté la première pierre mais de bien mauvaise facon. Donc un peu de respect.
145 commentaires
Pour la ministre de la Culture, il n’y a aucun droit à revendre ses jeux vidéo immatériels
19/01/2017
Le 19/01/2017 à 16h 21
Exactement, c’est pour ca que les question lié à la nature des œuvres est obsolète et il s’agit d’une problématique très vieille.
Par exemple la pissotière de Duchamp qui a mis en évidence que l’Art était une notion relative, que donc tenter de qualifier une oeuvre et de le catégoriser à des fins marchande est veine.
A l’époque l’Art était clairement défini ou semblait l’être. Avec l’Art contemporain cela à fait voler en éclat certain principes bien arrêtés juridiquement parlant. En effet à l’époque seul l’Art bénéficiait de frais particulier de transport. Avec cette pissotière de Duchamp, cela à mis en évidence qu’un objet pouvait être considéré comme une oeuvre d’Art, que donc les frais de transports ne pouvait être appliqué à cette oeuvre de la même manière.
Ici la nature logiciel, oeuvre d’Art, n’ont aucun sens, car la revente est une liberté lié à l’acquisition d’un bien, qu’il soit logiciel, oeuvre d’Art, bien matériel autre, n’a aucun intérêt, car c’est la notion propriété qui de fait confère à son propriétaire son droit de revente.
Le 19/01/2017 à 16h 10
Le 19/01/2017 à 15h 46
Dans mes commentaires je dis justement ce que tu dis, la dépréciation d’un bien immatériel est du au marcher, à la demande et au simple fait déja d’acquérir le bien.
La seule difference avec un bien dématérialisé c’est que la galette est un moyen de pleine autonomie vis à vis de l’editeur, du constructeur, du studio. Que revendre un bien que l’on possède et qui n’entretient aucun lien avec le constructeur permet de décider soit même à qui le vendre et comment, ce qui n’est dans notre situation pas encore possible bien que techniquement et juridiquement cela soit possible.
Dans le commentaire que tu cite, je précisais simplement que ce lien dont je parle est encore maintenu dans le cadre de la copie dématerialisé car lié à un service en ligne, la valeur du jeu acheté est localisé sur le disque, mais la licence en réalité est donné par le serveur, c’est le problème du dématérialisé, tu ne peux revendre ta copie à toi que tu es en train d’utiliser (en l’état), sauf si Sony met en place un système, une platforme qui va permettre de partager ta copie via le réseau sans avoir à retélécharger le jeu pour l’autre client (ce qui revient en fait à donner gratuitement le bien).
Le 19/01/2017 à 14h 01
Merde y’a un commentaire qui n’est pas passé :( bien argumenté.
En gros quand Sony donne la possibilité aux joueurs de télécharger le jeu sur leur platforme, ce stock virtuel est un droit d’accès au téléchargement d’une copie du jeu, la revente signifie autoriser une tiers personne à télécharger un jeu que la personne qui vend ne possède pas literralement, car la personne qui achète n’aura pas la copie du joueur du départ mais celle que Sony propose sur la platforme de téléchargement.
C’est donc un problème de moyen d’accès au contenu.
C’est exactement le même problème que lorsque vous achetez sur fnac le site et fnac physique.
Si vous avez des prix sur le site de fnac, les stocks sont ceux négociés pour faire des marges, donc vous ne pouvez pas utiliser les stock en magasin qui sont d’autre stock bien spécifiques.
Le 19/01/2017 à 13h 45
J’ai pas du être assez clair je pense dans mon explication.
Quand tu achète un jeu physique, la galette est le support de l’information, tu as payé pour la galette et le droit d’utiliser la propriété intellectuel détenue par Sony et son studio. De fait la galette et le jeu t’appartienne, tu peux le revendre.
Dans le cas d’un jeu dématérialisé, tu as utilisé un support dématérialisé (en vérité il s’agit d’un flux temporaire d’accès considéré comme support de l’information) à savoir un service qui permet de délivrer le jeu à télécharger.
Si le joueur ne veut plus ce jeu dématérialiser, il ne va pas vendre celui présent sur son disque, mais le joueur va donner la possibilité à un autre d’acheter pour moins cher un jeu en réalité présent sur les serveurs de Sony qui “neuf” est au prix fort, donc ça revient à appliquer un rabais sur un jeu qui n’a en fait pas été déprécié par l’utilisation ou l’action d’acheter d’un autre autre joueur.
Le 19/01/2017 à 13h 03
Ca revient à la même chose, puisque ca sous entend utiliser les services de téléchargement de la platforme, donc générer un traffic sur un jeu qu’ils ont déja vendu, ils accepteront pas d’user potentiellement cette situation, qu’ils vont considérer coûteuse, à raison d’un certain point de vue.
y’a des solutions à ce problème.
Le 19/01/2017 à 12h 20
L’usure du support n’a rien à voir avec l’oeuvre en elle même preuve en est le prix, le prix est lié à la production du jeux pas au prix de la galette.
L’usure d’une galette, n’est pas l’usure de l’oeuvre, la preuve le prix ne diminue pas fonction de l’état de la galette mais selon la demande du titre sur le marcher.
Le support justement tu t’en contre fou sur du dématérialisé, la seule chose que ça implique en terme législatif, c’est que en dématérialisé tu demande implicitement que le sysème nécessaire à l’accès au jeu dématérialisé soit toujours disponible pour celui qui souhaite l’acheter d’occasion le jour ou le premier acheteur souhaite s’en séparer. La galette n’a donc pas une valeur en soit, mais permet d’avoir une autonomie total de l’acheteur vis à vis du vendeur.
> La solution est donc d’apporter au niveau législatif, une garantie constructeur sur le maintient de la platforme nécessaire au téléchargement du jeu pendant au moins 1 an consécutivement à sa sortie.
Le 19/01/2017 à 09h 55
Je suis pour la capacité de revente d’un jeu dématérialisé.
La matérialisation d’une oeuvre n’est pas transmise uniquement à travers son support, mais par son expression, règle de base de l’Art.
La plus valus n’est pas non plus lié à son support dans le cadre du jeux vidéo (ça peut être par contre lié à son packaging, au contenu).
Dans le cadre de l’occasion la valeur du jeu diminue ou augmente du fait de la demande, de sa dégradation ou de son maintient dans le temps.
Le support n’est qu’un moyen de lire l’oeuvre, sa dégradation n’est pas soumise donc à la diminution de la valeur de l’oeuvre, sauf dans le cas de la “collection” d’oeuvre d’Art.
En droit tout bien acquis par son propriétaire peut jouir de ce bien, il en a l’usufruit. Il peut le détruire s’il le souhaite.
Dématérialisé, le jeu vidéo reste la propriété du joueur, sur un bien qu’il a aussi acheté, le disque dur représente le support.
Le 19/01/2017 à 09h 44
C’est avec ce genre de discours que nous somme dans cette situation, être passif, n’a jamais fait qu’agraver la situation.
Moi je pense totalement l’opposé. Que c’est justement notre immobilisme et notre propension à se laisser gouverner par une caste qu’on arrive à devenir si faible et manipulable. Que l’on arrive à laisser les politiques tordre nos droits et notre relative motivation à faire changer les choses d’un revers de main, de mots, de 49.3
Débits moyens sur Netflix : des hausses, sauf Free qui chute à la dernière place européenne
12/01/2017
Le 12/01/2017 à 09h 52
Quand tu sais que le débit vidéo sur YouTube pour du 1080p c’est max 8Mbits/s de recommandé c’est un peu la honte.
Microsoft prive la Xbox One de Scalebound, l’une de ses exclusivités de 2017
10/01/2017
Le 11/01/2017 à 12h 49
Oui mais ca reste un projet qui coule et un triple A. C’est pas rien.
Le 10/01/2017 à 12h 38
Le problème dans ce genre de projets, c’est que Microsoft a fait une commande auprès de ce studio, la pré-prod a été ecourté pour les objectifs de MS, du coup ca produit des jeux à la DA douteuse, aux mécanique de gameplay approximatives pourtant le point fort de ce studio.
Ce jeu n’est pas inspiré et pourtant c’est un AAA avec 100 personnes (ce qui est relativement peu en fait). Mais ca va faire mal à ce studio car ca reste un gros budget, ils n’ont pas les reins assez solides pour supporter cette déconvenue.
Sincèrement j’espère qu’ils trouveront d’autres projets rapidement.
Le 10/01/2017 à 12h 20
Moi j’ai surtout vent que Microsoft ont sous payé les équipes, changé les objectifs du studio constamment, n’ont pas laissé les latitudes aux studios et développeurs pour faire le jeu.
Microsoft huile bien sa communication, mais derrière c’est quand même un studio qui a montré sa capacité à sortir des choses de qualité et dans les temps, donc je crois d’avantage ce qui se dit sur NEOGAF concernant les bruits de couloirs qu’une communication officielle de Microsoft qui nous a habitué à mal géré depuis trop longtemps mainteant ses projets sur le long terme.
le management de Microsoft est juste une catastrophe, un article pondu sur FF7 y’a pas longtemps disait la même chose en parlant des équipes de Square qui avaient déja eu l’occasion de bossé avec Microsoft.
Le 10/01/2017 à 10h 44
Ce marcher n’a jamais été autant fleurissant depuis l’air 90 avec les studios comme Adeline.
y’a un nombre incroyable de jeux vidéo à jouer c’est pas pour rien que la PS4 cartonne plus que la PS2 en son temps et on parle de vente pas de console distribués.
L’Irlande s’oppose au redressement d’Apple à 13 milliards d’euros
19/12/2016
Le 19/12/2016 à 13h 42
C’est se tirer une balle dans le pied évidemment. Une vision courtermiste comme d’habitude.
Zone Téléchargement de retour sans DL-Protect, l’enquête continue
30/11/2016
Le 30/11/2016 à 12h 52
Oui, sauf qu’elle se confronte à la logique commerciale qui est basé sur la demande et sur la propriété.
Après tout un ayant droit doit pouvoir trouver un moyen pour être rémunéré et continuer à créer. Tu peux pas créer des œuvres sans avoir les moyens de le faire. Si tu diminue cette capacité tu diminue d’autant la création.
C’est un concept simple.
La copie évidemment qu’en soit ca n’a jamais rien fait de mal, sauf dans nos sociétés basé sur la propriété.
Le 30/11/2016 à 12h 44
The ugly truth ;)
La PS4 Pro est disponible dès aujourd’hui, faut-il craquer ?
10/11/2016
Le 11/11/2016 à 10h 09
Ahahaha, ces features sont des demandes côté Sony pas du tout des features implémenté côté AMD ou prévu dans leur roadmap au départ, donc non ca n’est pas du charabiat marketeux, c’est juste ce qui a été apporté comme information par Cerny, un mec qui n’est qu’un ingénieur reconnu mondialement, le mec qui ta fait une conférence insipide car ce mec ne s’intéresse qu’à l’aspect hardware des machines qu’il s’occupe, ces propos n’ont pas porté à vendre, ce sont juste des informations que tu peux avoir en lisant une interview sérieuse faite par un site sérieux point barre, la preuve cette info n’a pas transité autre part, car tout le monde s’en cogne apparement de ce genre de détails pourtant très intéressant pour les développeurs.
Bref, le marketing à bon dos et ces features ont tout à fait leur place.
Le 10/11/2016 à 17h 54
Y’a plusieurs techniques, un vrai bon motion blur y’en a peu qui sont en fonction de la caméra et qui calcule parfaitement bien les déplacement des objets.
Le 10/11/2016 à 16h 11
Si tu t’intéresses strictement au fps ca n’a pas de sens, si tu ne t’intéresse pas au motion blur.
Des jeux avec 60fps oui c’est globalement mieux, mais des jeux en 30fps avec motion blur (gestion du mouvement par compensation avec effet de flou) et bien c’est kif kif.
Le 10/11/2016 à 15h 41
Comme je disais la génération précédente a apporté pleins d’améliorations, sur le son, sur la physique, sur l’ia, pas mal de domaine qui n’existait pas ou trop peu développé.
Cette génération à donc couté énormement d’argent et fait du jeux vidéo une industrie qui s’est rapproché plus que jamais de celui du cinéma avec des équipes qui ont enflé, les 3⁄4 des studios ont du agrandir leurs équipes, leurs équipements, motion capture, acteurs, script, les shaders qui ont explosé en 2005-2007 sur console avec les consoles de nouvelles générations ont fait que le marcher à explosé à bien des égards je n’invente pas, cette génération a donc apporté son lot de problèmes pour les studios, ca n’est pas pour rien que pendant 2 ans les jeux ont mis un temps fou avant de sortir plus que jamais par rapport au autres générations de consoles.
Je n’ai plus les chiffres mais l’impacte a été monstrueux. Le meilleur exemple c’est la délocalisation des studios du Japon vers les US, l’emergence des studios des pays de l’est qui ont pu faire parler avec le cout des développeurs diablement moins importants leur talent face aux studios qui ont souffert de cette transition brutale.
Ca a permis evidement de rendre plus professionnelle que jamais l’industrie et les métiers du jeux vidéo, mais ca manqué de peu de voir les consoles disparaitre. je vais pas refaire toute l’Histoire mais ce que je dis d’autres en ont déja parlé avant moi, je n’invente rien, mais on s’éloigne du sujet.
Le 10/11/2016 à 14h 43
Je pourrais avoir l’argumentation totalement inverse suite à la génération précédente qui a bien failli faire crever les consoles.
A faire durer trop les consoles à vouloir trop de puissance d’un coup pour voir justement à l’écran un écart NEs / Neo Geo, c’était les consoles qui allaient crever pour de bon.
Le cycle en transition évite d’avoir des studios comme sous la précédente génération devant faire des addaptations très importantes, ca n’est d’ailleurs pas pour rien qu’on a vu mourri tour à tour bon nombres de studios et de projets pour des raisons de couts, suite à la réorganisation et une redistribution de l’échiquier.
Ce genre de paris de risques, l’industrie du jeux vidéo ne peut plus le prendre. Faire evoluer une architecture plus fréquemment, proposer des projets à taille humaine plus fréquemment, c’est s’assurer un avenir.
Mais là on commence à parler de stratégie et d’avenir, bon on y est forcé du fait d’une industrie qui a pris de plein fouet la crise économique et les avancés technologiques qui ont pris un sacré coup derrière la tête et fait ralentir toute l’industrie.
Les cycles se raccourcissent donc du fait des avancés qui sont de plus en plus longue à venir et de plus en plus dur à satisfaire tant pratiquement il faut une puissance au carré pour apporté d’un point de vue visuel ce que l’on veut d’un système qui évolue comme tu le dis si bien.
C’est la principale raison pour laquelle d’ailleurs les optimisations, les progrès en programmation ont explosé depuis cette crise technologique et que des méthodes ont été développés ou amélioré en terme d’impact sur les ressources (oversampling, l’AA, compression, pipeline et autres moteurs de moins en moins gourmands en ressources).
Le 10/11/2016 à 14h 21
Ecoute j’invente rien, ca s’appelle évoluer, apprendre, communiquer, tous les jours ca arrive en Science, en économie, à ton travail qu’un collègue à toi ai travaillé sur un truc qui n’avait semble t’il aucun débouché et qui pourtant par retour d’experience vous a donné pour d’autres projets plus récent et plus porteur de nouvelles approches.
Que le Cell et la PS3 ai été déja en retard à sa sortie ne change en rien le fait que les difficultés rencontrés ont permis ensuite aux autres d’en bénéficié. Y’a aucun mind fuck là.
Les PC ont toujours été plus puissants que les consoles d’un point de vue puissance brut, la courbe de progression ne change rien au fait que ca a facilité les choses d’avoir eu une PS3 qui a été au centre du developpement des jeux vidéo et qui a été bénéfique ensuite sur PC dans le cadre des multiplatformes aussi.
Ca n’a rien de fou, juste c’est arrivé.
Le 10/11/2016 à 14h 07
Encore une fois j’insiste, le Cell a débouché sur des choix architecturaux suite aux problèmes connu par Sony sur sa PS3. Je n’ai pas dis que le Cell avait débouché sur une autre archi powerpc plus performante.
Le Cell a mobilisé d’importantes ressources pour les jeux vidéos, les procédes de fabrication des jeux ont du évoluer et avec apportés de nouvelles approches pour les architectures plus classiques c’est tout ce que je dis en fait.
Les améliorations hardware sont donc bien du à une experience sur le Cell, qui ont permis des optimisations sur les archi plus classique (je commence à me répéter :)
Le 10/11/2016 à 14h 04
Pas de soucis, enfin bref tout ca pour dire que j’ai jamasi dis que Sony était le génie de l’informatique, j’étais juste surpris de voir qu’on faisait un peu vite le tour de la question quand aux possibilités offerte par la machine sur un site internet censer nous apporter certaines notions, passer à travers certaines evidences que n’importe quel internaute aurait pu écrire en allant sur internet et estampiller l’article “Nextinpact” avec le sous titre et la pointe d’humour qui va avec.
Je voulait juste exprimer ca, évidemment je suis obstiné et consciencieux, j’apprécie pouvoir donner mon point de vue et m’assurer que les gens ont pas mal interprété, malheureusement on est vite pris pour un fanboy alors qu’à la base on veut juste partager quelque chose sans que cela ne soit pris pour autre chose qu’une information gratos que l’on donne. Après j’admets que je viens rarement ici pour aller dans le sens de la masse, j’aime titiller un peu les pcistes de tout poils.
Le 10/11/2016 à 13h 59
J’ai du temps libre aujourd’hui dans mon taff " />
Mais non, pour te répondre, j’exprimais juste une chose simple pour un peu contrarier les evidences, il me semble evident ensuite que je réponde aux gens qui m’écrive vis à vis de ce que j’ai pu écrire.
C’est tout.
Le 10/11/2016 à 13h 57
C’est bien ce que je dis tu ne lis pas ce que j’ai écrit.
Les features dont j’ai parlé viennent de Sony et plus particulièrment Mark Cerny, pas de la R&D de AMD, AMD eux même ont spécifié que leur roadmap avait été modifié en terme de features suite au partenariat avec Sony indirectement, donc non je ne suis pas d’accord quand tu dis que l’architecture à pas bougé, pour le reste je suis d’accord maintenant le principal travail a été fait, c’est plus au niveau moteur, software globalement que les optimisations ont été réalisé, il n’empêche que ça évolue toujours.
Pour finir, tous les jours en laboratoire, des tas de protocoles de tests aboutisse à des améliorations pour d’autres protocoles pourtant radicalement contraire. Ca n’est pas parcque l’architecture powerpc n’est plus que les moyens qui ont été mis en jeu pour contourner ses manquements, qu’ils n’ont pas été réutilisé pour les architectures plus classique, c’est justement mon propos.
Le 10/11/2016 à 13h 51
Mais moi je m’en fou de ce que Sony dit ou l’article, je dis simplement que si on est honnête en rebondissant sur ce qui a été dit dans l’article et au moins autant dans les commentaires, la console apporte bien plus que les gens veulent bien nous faire croire c’est tout. A aucun moment j’ai parlé de 4K 60fps, même sur PC tu n’as pas ca, déja faire tourner un jeu en 30fps en 1800p + ultra c’est rare alors j’allais certainement pas parler des consoles dans ce domaine.
Le 10/11/2016 à 13h 49
Encore une fois le malentendu vient du fait que je n’ai pas dis que la PS4 pro a été taillé pour du 4K natif et ca se voit dans ses choix niveau hardware pour l’oversampling, l’upscaling, mais comme je dis on arrive à de bon résultats, car y’a de réel optimisations de faites.
Le 10/11/2016 à 13h 47
C’est complètement faux, puisque des améliorations au niveau architectural ont été directement déduite de ce passif, aussi bien d’ailleurs en terme de développement pur.
Bref, quand on répond, c’est bien aussi de lire ce qui a déjà été écrit.
Le 10/11/2016 à 13h 44
je n’ai pas dis que le Cell était bien, j’ai simplement dit qu’il a permis d’apporter dans le cadre du partenariat Sony/AMD de faire des choix suite à des retours d’experience.
Si c’était si facile de faire ca, pourquoi les autres concurrent n’y ont pas pensé hein ? Si c’étai si facile de voir des GPU calculer 2 x INT16 / 2 x FP16 pourquoi personne ne la intégré plutot ailleurs ? Sur PC les développeurs le demande depuis des années.
Le 10/11/2016 à 13h 41
J’utilise pas le multiquoat, du coup j’ai l’air de flooder, la vérité c’est que j’etaye mes propos, j’essaie de prendre mon temps pour répondre à certain là ou je pense que ça mérite d’éclaircir les choses alors que trop souvent vous êtes dans votre zone de confort.
Au départ je déplorais simplement le fait que la console soit présenté comme un simple upgrade hardware basique alors qu’en vérité y’a eu du taff derrière et pas juste je me gratte la bidoche et je décide de rajouter ça, ça ou ça, car ça ferait bien car j’ai besoin d’acheteurs pour Noel comme certain se plaisent à le croire.
Non y’a eu du travail, et je me devais simplement de le rappeler c’est tout même si l’audience n’apprécie pas.
Mais bon sur Nextinpact je commence à avoir l’habitude avec ses lecteurs très orientés, je finirais par une petite phrase bien sérieuse :
“Ce n’est pas ce que tu ne sais pas qui te fait peur, mais c’est ce que tu penses savoir avec certitude et qui ne l’est pas.”
Le 10/11/2016 à 13h 33
Je parle d’optimisation hardware pas de concept. J’ai jamais dis que sur PC ca n’avait jamais été théorisé, c’est juste que sur console il a fallu les implémenter car l’environnement le permet.
Le 10/11/2016 à 13h 31
Quand je parle de processeur unit, je parle des SPE et PPE du Cell, ces unités qui au sein d’un PPE doivent être hiérarchisé dans les taches a effectué, cela à complètement modifié l’approche des caches et l’optimisation des pipelines, il ne s’agit pas donc de simple processeurs physiques parallélisés.
Le 10/11/2016 à 13h 27
Sur console tu as des exigences en terme de tour, tu peux pas lancer des pipelines de rendu etc sans optimiser et surtout t’assurer que y’a une synchronisation parfaite entre ce qui arrive, ce qui est calculé et ce qui est rendu, d’avoir un bus qui te permette de faire transiter du CPU/GPU à un bon débit à la volé sans gêner tes pipeline en cours et bien tu peux t’assurer cette synchronisation, cette continuité sans surcharger les caches notamment au niveau du GPU.
Le 10/11/2016 à 13h 18
C’est le problème des pcistes ils comprennent pas que les consoles apportent de véritable expertises.
Quand le Cell est sortie, pratiquement aucun moteur ne savait intégrer et optimiser leurs codes sur des processeurs unit parallélisés.
Face à la difficulté et la mutalisation des efforts, y’a vraiment eu de grosses avancés en terme de développement dans ce domaine, l’approche à beaucoup changé depuis, et l’architecture particulièrement “pain in the ass” de la pS3 a vraiment changé la donne à bien des égards et permis même aux autres concurrents d’en bénéficié pareil sur PC. Beaucoup sous estime ce fait là, ca vous semble aujourd’hui banal.
L’expertise, l’experience acquise sur ce genre de processeur exotique à vraiment fait avancer certaines choses dont j’ai parlé d’ailleurs précédemment.
En ce qui concerne AMD, ils ont bénéficié du partenariat avec Sony dans ce domaine avec le retour d’experience et surtout sur demande de Sony ils ont apportés des features auquels ils n’avaient jusqu’à l’or jamais pensé ou travaillé car jusqu’à mainteannt AMD travaillait sur PC pratiquement exclusivement.
Vous êtes surtout pas du tout au fait de comment les consoles fonctionne et comment la mentalité est autrement differente même dans le développement. Les créateurs partagent énormement entre les studios et ca me semble tout à fait logique qu’il en soit ainsi entre partenaire sur l’aspect hardware.
Ca vous échappe, mais c’est pourtant comme ca que ca se passe.
Le 10/11/2016 à 13h 09
Relis ce que j’ai écris plus haut, j’ai fait la liste des optimisatons faite sur la PS4 pro, c’est loin d’être anodin et être comme tu dis juste “un seul pauvre Go de RAM en +”.
Ensuite pour répondre à ce que tu dis sur le cycle de vie des consoles, à mon avis tu oublie quelque chose.
La PS4 Pro n’est pas une nouvelle console, en ce sens qu’elle n’apporte pas un nouvel ecosystème, elle s’intègre complètement dans ce qu’offre la PS4, même OS, même philosophie architecture, même développement puisque c’est la PS4 qui est le target de développement. La PS4 Pro apporte de très belles optimisations, pas juste de la puissance brut. Donc la courbe de progression dont tu parle sur console n’existe pas avec la PS4 Pro.
Quand tu comprends ca, tu comprends que la PS4 pro au contraire est une machine qui fait durer encore lpus longtemps la PS4, c’est donc pas une machine qui à vocation à vendre du rêve marketingement parlant, mais permettre aux joueurs exigent d’avoir accès à un surplus de puissance sans de gros surcout pour les studios (pas besoin de revoir le moteur profondément, les optimisations sont rapidement ajustables car inclus dans le hardware, ca n’est pas une question de software just de choix).
Le 10/11/2016 à 12h 48
Un système à 3000 $ contient forcemment du SLI de GPU et un processeur capable de le faire tourner, la finesse de gravure n’explique pas tout, tu consomme en watt forcemment plus et j’étais en plus ironique, je n’imagine pas qu’un PC puisse consommer plus de 1500 watt pour le gaming même un quad SLI, surtout à l’air du SSD.
Le 10/11/2016 à 12h 44
Les optimisations hardware et performances marginal ?
Vous êtes un peu perdu les gars. Tu sais que le bus dont j’ai parlé plus haut qui permet d’accéder à la mémoire et by passe les cache GPU pour faire certaines opérations est un bus purement et simplement qui n’existe pas sur PC et qui permet d’avoir des débits de 20Gb/s soit l’équivalent en terme de performance du bus utilisé par le PCExpress, donc quand tu plug ton GPU, tu es bien content d’avoir un bus qui joue un role senser être primordial pour ton système, pourtant les PCistes sont les premiers à réclamer que les normes sur les bus évolue le plus vite possible pour ne pas être limité en débit.
Alors pourquoi quand un bus additionnel par exemple (ca n’est qu’un exemple parmis d’autres optimisation) aussi interessant il deviendrait subitement marginal en terme d’impact performance ?
Le 10/11/2016 à 12h 34
Il faut comprendre une chose.
L’architecture est differente sur console pour une raison simple, tu dois créer un hardware capable de tenir suffisamment la durée.
Depuis l’existence des consoles ce qui avait le plus évolué c’était le hardware, depuis la précédente génération de console, c’est la facon de créer les jeux vidéos qui ont permis d’apporter ce surplus d’optimisation pour ne pas être largué et apporter une constante amélioration.
Ensuite quand tu comprends que l’architecture dure 3 à 5 ans, tu comprends d’emblée pourquoi un ecosystème peut avoir un cycle plus court tout en aillant les avantages des consoles puisque il conserve la même logique de création, de production, d’accompagnement dans le développement.
La Ps4 pro est une Ps4 avec des optimisations pour sa propre durée de vie sans avoir un gap technologique trop important qui générerait des problématique autant techniquement, budgétairement que marketingement parlant. Mais elle partage le même ecosystème, et en vérité la PS4 pro ne fait que perdurer un écosystème plus longtemps encore.
Enfin, le développement qui est le plus important est PS4 centrique, ca veut dire que la PS4 pro n’est pas une console à par entière, n’a pas vocation à remplacer une console existante. Sur PC tu as pour chaque utilisateur un ordinateur different avec un GPU / CPU / mémoire differentes. Tu ne peux pas au niveau hardware optimiser les ressources pour atteindre des objectifs car sur console le hardware est pensé autant que le développement (je parle des first party et des talentueux third party).
Le 10/11/2016 à 12h 22
Quand on a un hardware qui coute 2000$ que ton jeu l’exploite à 50% de ses capacités, je crois qu’en terme de marketing tu es mal placé. " />
Et le département marketing de Sony doit être particulièrement mauvais si les sites spécialisés hardware majoritairement n’en parle pas.
Le 10/11/2016 à 12h 21
Mais c’est pas le cas non plus PC monsieur je bombe le torse.
Y’a des optimisations faite sur console et des concessions aussi, c’est du upscaling souvent, avec justement des méthodes interne pour optimiser cette approche sans avoir à consommer trop de puissance et en ayant un résulta très proche du 4k natif.
Tu sais sur console tu n’as pas le choix, les contraintes hardwares en terme de puissance pure, t’oblige à revoir tes méthodes, à quoi bon se targuer sur PC de pouvoir faire tourner n’importe quel jeu en 4k natif si ce n’est dire que tu as réussi à consommer tout l’energie de ton quartier, que tu as réussi à faire du natif et dépenser 3000\( pour un truc qui peut pratiquement tourné en l'état mais sur un système à 400\) ? C’est ça la différence mec, c’est que ton blabla te sauve pas de ton ignorance.
Tu es au courant que les décors à Holywood sont des fakes ? Je vais même te faire une révélation, c’est de l’image de synthèse " />
Le 10/11/2016 à 12h 15
La PS4 Pro sort justement pour profiter de la révolution au niveau architecturale de la mémoire HBM 2⁄3 en 2018-2020 pour les CPU / GPU. Donc complètement cohérent.
En plus on s’affranchi de plus en plus du physique, un lecteur bluray n’a plus de sens quand tout sera par internet.
Le 10/11/2016 à 12h 08
C’est triste pareil méconnaissance. Je sais que vous n’y êtes pas habitué les pcistes à l’optimisation mais quand même ouvrez vos chakra " />
Le 10/11/2016 à 11h 51
Non ca n’est pas du bullshit juste parceque tu le dis, ca reste toujours vrai et les architectures restent differentes en beaucoups de points, mais si tu fais ce constat, je déployerais plus d’energie à essayer de t’expliquer que toi à essayer d’admettre que ca peut être vrai.
Le 10/11/2016 à 10h 46
C’est dommage que pour un site d’information de qualité comme Nextinpact vous oubliez de mentionner ce qui fait de cette console un vrai atout pour le développement dans les jeux vidéos même par rapport à sa grande soeur la PS4.
Y’a de véritables améliorations, qui vont vraiment permettre de profiter de cette PS4 Pro, les développeurs vont vite s’en rendre compte pour les prochains jeux, du coup on comprend pourquoi la 4K non natif en oversampling sur Ps4 Pro, le hardware va dans ce sens et est possible.
Télétravail lors des arrêts maladie, le retour
10/05/2016
Le 10/05/2016 à 14h 16
Encore une recommandation du MEDEF que les politiques s’empressent de vouloir faire voter ?
Je peux vous dire que tous les gens qui bossent dans la communication et l’événementiel en générale vont l’avoir mauvaise. Déjà que leur patron leurs mettent déjà la pression pour bosser chez eux quand ils sont en arrêts maladie sous la pression des clients et celle de la hiérarchie, je peux vous dire que ce truc va légaliser l’esclavagisme.
Les horaires de bureau ne sont déjà plus respectés, les téléphones portables ont déjà augmenter les amplitudes horaires de travail de manière illégale et générer énormément de stress et de cas graves d’harcèlements, si en plus ils veulent légaliser le télétravail en période d’arrêt maladie, ca deviendrait n’importe quoi.
Qu’ils s’occupent déjà de faire en sorte que le télétravail soit démocratiser quand il peut l’être, que l’on change notre façon de travailler, que cela ne soit plus lié seulement à une présence bête et méchante en entreprise. Le reste c’est du productivisme primaire et effrayant. Avoir la possibilité de bosser alors que l’on est en arrêt, ça se fait déjà, ça s’appel ne pas envoyer son arrêt et s’entendre avec son patron (jambe cassé par exemple).
Pour le reste encore une fois ça dépend du médecin, de la qualification de l’arrêt, par définition un arrêt est justifié et un arrêt c’est du repos forcé pour permettre à une personne en arrêt de remettre de sa maladie ou de son accident, l’empêchant d’aller sur son lieu de travail (contamination, impossibilité de travail car trop faibles, peut importe) ou le restreindre à tout déplacement en dehors du travail comme c’est déja spécifié dans les arrêts.
Encore un faux débat selon moi qui n’est lié qu’au travail qu’est sensé réaliser le médecin et la conscience morale du patient.
PlayStation 4 : comment profiter du Remote Play sur Mac et PC
07/04/2016
Le 08/04/2016 à 08h 56
C’est quoi ce troll ?
Si tu utilise l’écran de ton PC, ça me semble normal de brancher la manette à ton unité non ?
Cette fonctionnalité sert de dépannage pour jouer, si jamais la Télévision était dans le cas d’un espace de vie familiale, avec ton PC.
Comme d’habitude, les gens trolls à fond. Les gens juge ce que Microsoft à fait avec sa XONE, mais faut’il rappeler que ce feature n’est qu’un ajout parmi d’autre, qu’évidemment la compatibilité, les performances s’améliorerons avec le temps.
On juge une stratégie casual de Microsoft qui a pensé son produit ainsi avec une feature centrale à la vie de la console, et un concurrent qui a pensé sa console pour le jeu avant tout, encore heureux que le système de streaming pensé au lancement de la console Microsoft se débrouille mieux.
PlayStation VR de Sony : lancement en octobre à 399,99 euros
15/03/2016
Le 20/03/2016 à 02h 43
On peut pas demander à des gars travaillant sur du matos PC de comprendre.
C’est un peu le débat depuis les années 80. Peut importe qu’une console soit 10 fois moins puissante qu’un PC, le fait que les constructeurs de consoles donnent accès à tous les outils permettant d’optimiser les performances sur ce système fermé fera que les pcistes comprendrons jamais que c’est pas au provider de moteur de rendre la VR viable ou aux constructeurs de matos non plus avec des caractéristiques ultra alléchante, mais à ceux qui mettent les mains dans le cambouis et qui ont accès aux entrailles du hardware pour y arriver.
Le 20/03/2016 à 02h 28
Faire un caca ne sert à rien surtout quand on dit de la merde.
Les produits à l’arrache ? Ca fait 3 ans que Sony fait de la R&D sur le PSVR, un peu de respect surtout quand les differents acteurs on enfin compris qu’il fallait une technologie mature et du support software pour créer un marcher.
Nintendo avait jetté la première pierre mais de bien mauvaise facon. Donc un peu de respect.