Epic Games dévoile son Unreal Engine 5 en vidéo et vante la PS5

Pas avant 2021

Epic Games dévoile son Unreal Engine 5 en vidéo et vante la PS5

Epic Games dévoile son Unreal Engine 5 en vidéo et vante la PS5

Avec la Xbox Series X et la PlayStation 5, les consoles de salon ne seront enfin plus de « sous PC pour joueurs ». Leurs caractéristiques seront bien plus haut de gamme, permettant aux développeurs d'en profiter. Les moteurs s'adaptent ainsi, Epic Games travaillant déjà à son Unreal Engine 5.

Alors que la version 4.25 de l'Unreal Engine vient d'être mise en ligne, avec le support pour les consoles de nouvelle génération, du Path tracing, d'HoloLens 2 et autres nouveautés, l'éditeur ne s'arrête pas en si bon chemin et vante déjà la prochaine branche majeure (5.x) de son moteur.

Il dit vouloir aller plus loin en matière de photo-réalisme, un terrain où il a déjà bien avancé ces dernières années. Mais il est talonné par ses concurrents, notamment Unity qui avait montré ses muscles en la matière il y a quelques mois avec sa démonstration The Heretic.

Epic Games mise de son côté sur Lumen in the Land of Nanite pour nous vendre du rêve. La vidéo diffusée fonctionne selon les dires de l'éditeur sur une PlayStation 5. De quoi permettre à Sony et AMD de vanter les mérites de la nouvelle console, même si un rendu de ce genre a l'avantage de ne pas subir les contraintes d'un jeu complet. Aucun autre détail technique précis n'a d'ailleurs été donné, limitant l'analyse d'une telle déclaration. 

 

Si la démonstration utilise des solutions existantes dans Unreal Engine 4.x, comme Chaos physics and destruction, Niagara VFX, convolution reverb et l'ambisonics rendering, ce sont deux nouveaux éléments de la version 5.x qui sont mis en avant : Nanite et Lumen.

Le premier permet de « virtualiser » la géométrie, permettant d'obtenir un grand niveau de qualité avec un travail réduit et moins de contraintes, puisqu'il n'est plus nécessaire de gérer les adaptations : 

« Cela signifie que les rendus du niveau d'un film comprenant des centaines de millions ou des milliards de polygones peuvent être importés directement dans l'Unreal Engine, – d'un sculpt ZBrush à un scan photogrammétrique en passant par des données CAD –et ça fonctionne. Nanite geometry est diffusée et adaptée en temps réel, il n'y a donc plus de question de budget, de nombre de polygones, de mémoire, ou de nombre de draw ; il n'y a plus non plus besoin de préparer les détails dans des normal maps ou modifier manuellement les LODs ; ce, sans perte de qualité. »

De son côté Lumen concerne bien entendu la gestion des lumières. Il s'agit d'une solution d'illumination globale, sans doute pensée pour répondre aux initiatives de Crytek en la matière :

« Elle réagit directement aux changements de la scène et de la lumière. Le système effectue un rendu d'interéflexion diffuse avec un nombre de rebonds infini et des réflexions indirectes spéculatives dans des environnements importants, détaillés, en s'adaptant du millimètre au kilomètre. Les artistes et concepteurs peuvent créer des scènes plus dynamiques avec Lumen, par exemple pour changer l'angle du soleil selon l'heure de la journée, allumer une lampe torche ou le rendu d'une ouverture dans le plafond, la lumière indirecte s'adaptera en conséquence. Lumen retire le besoin d'attendre la construction d'une lightmap et la modification des UVs — un gain de temps important lorsqu'il s'agit de déplacer une source de lumière dans l'éditeur et que le résultat est identique lorsque le jeu est lancé sur une console. »

Epic Games précise que l'Unreal Engine 5 sera disponible en preview au début de l'année prochaine, mais ne sera pas finalisé avant au moins un an et demi. Il fonctionnera bien entendu pour consoles (actuelles ou de nouvelle génération), Mac, PC et appareils mobiles sous Android et iOS. 

Il sera ainsi possible de commencer le développement d'un jeu avec UE 4.x et de migrer vers la version 5.x ensuite, lorsque tout sera prêt. C'est d'ailleurs ce qui sera fait pour Fortnite, qui sera proposé sur les nouvelles consoles basé sur le moteur actuel, avant de migrer sur UE 5.x à la mi-2021.

Commentaires (23)


C’est tout simplement extra…


La vraie nouvelle du jour est surtout que des gens postent encore des vidéos sur Viméo.


Du déjà vu encore et toujours, des démos improbables… on retombe dans la folie à la Crysis, des démo E3 d’ubisoft et au final 99% des joueurs verront des graphismes de moindre qualité ou mieux ne pourront pas faire tourner le jeu sans racheter un pc et donc une console ici…



J’attend la vidéo d’une optimisation aux ptits oignons avec une carte graphique milieu de gamme “FPS avant opti / après opti” et là je dirais que c’est dingue..



L’espace de stockages s’étend ? Ok faisons des jeux qui prennent 150Go en oubliant que de nombreuses personnes ont encore des disques de moins de 500Go…
La puissance des proc et CG augmente ? Encore plus de détails et de réalisme, en oubliant que plus de 90% des joueurs n’ont pas les moyens pour un PC à 1300€ qui sera obsolete dans 4 ans.
La fibre se démocratise ? On peut virer les dev en charge de l’optimisation du lien client-serveur, en oubliant que la fibre n’est pas disponible aussi largement qu’on le dit…



secouss a dit:


Du déjà vu encore et toujours, des démos improbables… on retombe dans la folie à la Crysis, des démo E3 d’ubisoft et au final 99% des joueurs verront des graphismes de moindre qualité ou mieux ne pourront pas faire tourner le jeu sans racheter un pc et donc une console ici…J’attend la vidéo d’une optimisation aux ptits oignons avec une carte graphique milieu de gamme “FPS avant opti / après opti” et là je dirais que c’est dingue..L’espace de stockages s’étend ? Ok faisons des jeux qui prennent 150Go en oubliant que de nombreuses personnes ont encore des disques de moins de 500Go… La puissance des proc et CG augmente ? Encore plus de détails et de réalisme, en oubliant que plus de 90% des joueurs n’ont pas les moyens pour un PC à 1300€ qui sera obsolete dans 4 ans. La fibre se démocratise ? On peut virer les dev en charge de l’optimisation du lien client-serveur, en oubliant que la fibre n’est pas disponible aussi largement qu’on le dit…




On peut pas limiter l’innovation prévue pour les consoles next-gen avec ces arguments (pour citer l’article: “ne sera pas finalisé avant au moins un an et demi”). Car une console, tous les joueurs ont la même expérience (à un écran prêt), la comparaison au pc est … inadaptée dirons nous. Pour ce qui est de la connexion internet, nul besoin de fibre pour jouer en ligne dans des conditions correctes, mais je reconnais que télécharger des jeux de tailles exponentielles, c’est pénible: il faudrait avoir plusieurs choix selon la définition finale choisie (nul besoin de télécharger le jeu 4k si il est joué sur un écran 1080p).


Impressionnant, surtout le début dans la petite gorge rocailleuse assez bluffante niveau photoréalisme mais la scène est bien choisie sur les scènes suivantes et avec le personnage on y croit déjà un peu moins (mais ça reste très bon).


Un peu déçu par l’eau.



googfrgo a dit:


On peut pas limiter l’innovation prévue pour les consoles next-gen avec ces arguments (pour citer l’article: “ne sera pas finalisé avant au moins un an et demi”). Car une console, tous les joueurs ont la même expérience (à un écran prêt), la comparaison au pc est … inadaptée dirons nous. Pour ce qui est de la connexion internet, nul besoin de fibre pour jouer en ligne dans des conditions correctes, mais je reconnais que télécharger des jeux de tailles exponentielles, c’est pénible: il faudrait avoir plusieurs choix selon la définition finale choisie (nul besoin de télécharger le jeu 4k si il est joué sur un écran 1080p).




On ne parle pas de limiter l’innovation ? L’optimisation c’est aussi de l’innovation !
Même microsoft sait maintenant faire de la MAJ partielle, mais quasi aucun jeu ne le fait, obligeant à télécharger des dizaine de Go de MAJ. La même avec les différents plugin (DirectX, Vulkan et compagnie) plutôt que les stocker dans un lieu commun chaque jeu est isolé de l’autre alors qu’ils partagent les mêmes briques (même ceux d’un même éditeur ne le font pas)
“Nul besoin de fibre pour jouer en ligne” la blague, va jouer a n’importe quel MMO ou FPS avec une latence de 900ms sur de l’adsl. La latence peut exister de 3 manières, le trajet, le traitement serveur et le client. Le trajet ils n’y peuvent rien (et encore la position géographique et le nombre de serveurs jouent) mais ils ont la mains sur les serveurs et le client, l’opti des paquets, de leur traitement, la fiabilité de la connexion,…



Je te rejoins sur le choix de la résolution en amont, chez Ubisoft certains jeux séparent le pack 4K du reste du jeu. Mais on pourrait aller beaucoup plus loin là dessus… On en revient aux plugins dont je parlais, le launcher vérifierais les briques déjà présentes sur le PC, et ne téléchargerais que les éléments nécessaires.



Côté optimisation un univers de possibles est ouvert, nouvelles manière d’empackter les jeux, stratégies poussées de mise en cache, accès des ressources organisées, … et ce sera de l’innovation au plus pur service du joueur. Les anciennes consoles était encore plus limitées qu’aujourd’hui, les dev rivalisaient d’astuces pour diminuer les besoin et maximiser le rendu. Il faudrait s’y remettre sérieusement plutôt que bêtement utiliser des produits sur étagère et de se dire qu’on vend un jeu sans opti pour les quelques gamers qui ont les moyens… Et que les autres baveront sagement devant twitch.




Qruby a dit:


Un peu déçu par l’eau.




Moi par le fait que ses pas dans le sable ne marquent pas :/



secouss a dit:





ouais enfin partager les ressources entre les jeux c’est remettre en question le principe même des installations logiciels sous Windows. Du coup c’est pas vraiment à eux de faire cet effort mais à MS de revoir ça. Ensuite côté console c’est un poil plus compliqué, tout est cloisonné au maximum pour éviter que les gens fassent n’importe quoi donc mettre des ressources en accès libre pour tout jeu c’est une surface d’attaque trop risquée si on laisse les dev faire ça (parce que ça sera mal fait, c’est une certitude) ou une taille du système qui explose car c’est le fabricant qui doit gérer l’ajout des dites ressources (et du coup risquer qu’un jeu pas màj ne marche pas si eux mettent à jour la ressource dispo etc… le bordel quoi).



Par contre la fibre obligatoire faut arrêter 5min. Si c’était aussi ignoble personne ne jouerait en ligne en dehors des grandes villes et que je sache une énorme partie de la population française n’y vit justement pas.
(je ne dis pas que c’est injouable, juste qu’il y a un monde entre “c’est jouable” et “c’est chiant”).


“il n’y a donc plus de question de budget, de nombre de polygones, de mémoire, ou de nombre de draw ; il n’y a plus non plus besoin de préparer les détails dans des normal maps ou modifier manuellement les LODs ; ce, sans perte de qualité”



Si c’est vrai en pratique, c’est juste parfaitement révolutionnaire. Et c’est exactement ce à quoi je réfléchissais, je donnerai n’importe quoi pour en savoir un peu plus.



Chris Roberts va faire une dépression :mdr2:



Qruby a dit:


Un peu déçu par l’eau.




Assez d’accord, le rendu de l’eau est vraiment pas super. C’est le seul moment de la vidéo où j’ai laché un beurk :D
Et aussi le petit glitch en haut à droite de l’écran à 4min 38


L’eau est vraiment pas top oui, on constate qu’ils passent vite dessus d’ailleurs.




secouss a dit:


Même microsoft sait maintenant faire de la MAJ partielle, mais quasi aucun jeu ne le fait, obligeant à télécharger des dizaine de Go de MAJ.




La màj partielle c’est évidemment une super idée oui, il faut que ça s’améliore.



Pour la connexion, je reste sur ma position, l’ADSL, même du 8mbit/s suffit tant que le ping est inférieur à 80 environ.



Et concernant la compression, la gestion mémoire etc, ça dépend pas mal de la r&d sur ces sujets là qui est plus souvent menée dans les universités que dans les studios de JV



secouss a dit:


Du déjà vu encore et toujours, des démos improbables… on retombe dans la folie à la Crysis, des démo E3 d’ubisoft et au final 99% des joueurs verront des graphismes de moindre qualité ou mieux ne pourront pas faire tourner le jeu sans racheter un pc et donc une console ici…J’attend la vidéo d’une optimisation aux ptits oignons avec une carte graphique milieu de gamme “FPS avant opti / après opti” et là je dirais que c’est dingue..L’espace de stockages s’étend ? Ok faisons des jeux qui prennent 150Go en oubliant que de nombreuses personnes ont encore des disques de moins de 500Go… La puissance des proc et CG augmente ? Encore plus de détails et de réalisme, en oubliant que plus de 90% des joueurs n’ont pas les moyens pour un PC à 1300€ qui sera obsolete dans 4 ans. La fibre se démocratise ? On peut virer les dev en charge de l’optimisation du lien client-serveur, en oubliant que la fibre n’est pas disponible aussi largement qu’on le dit…




Euh t’es pas obligé de mettre les graphismes à fond hein. Bien souvent les graphismes en medium rend le jeu beaucoup moins gourmand, donc viable sur de nombreuses machines. Et ça reste très beau, en tous cas pas plus moche qu’un jeu sur un vieux moteur en high.



Et il arrive bien un moment où tu achètes ton PC, donc là t’es content de pouvoir avoir de tels graphismes à l’instant t.



C’est quoi la solution sinon ? on garde les graphismes des années 2000 comme ça on est sûr que ça tourne partout ?



L’optimisation il pourrait y en avoir plus ça c’est certain. Mais cela n’empêche qu’au bout d’un moment, pour avoir de meilleure graphismes, il faut plus de puissances, plus de calculs, plus de polygones, plus de mémoire pour les textures. Et c’est en partie le travail du moteur, faire tout ça le plus intelligemment et le plus efficacement possible. Et c’est ce qu’ils présentent en partie dans cette vidéo.



Aujourd’hui Crysis tu le fais tourner avec ta carte bas de gamme. Donc quelque part ça fait avancer. Il faut ces démo techniques, et il faut des jeux précurseurs.



Ce sont les jeux qui ouvrent le marché des cartes graphiques, pas l’inverse. On peut pas attendre que les cartes graphiques existent pour lancer la création de jeux pouvant les exploiter. Personne ne ferait de carte graphique dans ce cas là. Pas de besoin lors de la sortie de la carte.


Moi j’ai adoré. Vraiment impressionnant. Y compris niveau son, j’ai un peu revécu la claque qu’était… Unreal 1 dans ce domaine.




secouss a dit:


Du déjà vu encore et toujours, des démos improbables… on retombe dans la folie à la Crysis, des démo E3 d’ubisoft et au final 99% des joueurs verront des graphismes de moindre qualité ou mieux ne pourront pas faire tourner le jeu sans racheter un pc et donc une console ici…




Là on parle console, donc pas trop de soucis. Et on peut aussi revenir à Unreal 1: j’ai pu le finir 3 ans après l’avoir acheté (entre les mises à jour et les perfs, c’était infaisable).
Niveau optimisation, justement c’est un peu le sujet: créer des mondes complexes et laisser le moteur optimiser, plutôt que d’optimiser à un niveau trop “tôt” (comme dans le level design)
Mais bien sûr, c’est une démo, même pas l’équivalent d’un niveau d’un jeu, sans aucune gestion d’ennemi. Donc ce n’est pas le reflet de ce que seront la plupart des jeux qui auront d’autres chats à fouetter que de trier ce qu’il faut afficher ou non dans une scène.
Par contre, le principe me rappelle un peu les méga textures…




(quote:46952:alf.red)
Assez d’accord, le rendu de l’eau est vraiment pas super. C’est le seul moment de la vidéo où j’ai laché un beurk :D Et aussi le petit glitch en haut à droite de l’écran à 4min 38




Si c’est pour critiquer un truc pas fini: aucune particule quelque soit la taille n’a d’ombre (les éboulis, les oiseaux, …)


Il ne faut pas oublier que cette démo est surtout a destination des développeurs, et que raccourcir le temps de travail qu’il faut pour intégrer les assets, ça fera gagner énormément de temps aux équipes de devs et c’est une vrai évolution technologique assez bluffante.


C’est joli pour sur. J’imagine un Zelda botw avec ce type de rendu…
Après les jeux qui m’ont le plus fait rêver ces derniers temps ne sont pas les plus complexes au niveau visuel.



secouss a dit:


On ne parle pas de limiter l’innovation ? L’optimisation c’est aussi de l’innovation ! Même microsoft sait maintenant faire de la MAJ partielle, mais quasi aucun jeu ne le fait, obligeant à télécharger des dizaine de Go de MAJ. La même avec les différents plugin (DirectX, Vulkan et compagnie) plutôt que les stocker dans un lieu commun chaque jeu est isolé de l’autre alors qu’ils partagent les mêmes briques (même ceux d’un même éditeur ne le font pas) “Nul besoin de fibre pour jouer en ligne” la blague, va jouer a n’importe quel MMO ou FPS avec une latence de 900ms sur de l’adsl. La latence peut exister de 3 manières, le trajet, le traitement serveur et le client. Le trajet ils n’y peuvent rien (et encore la position géographique et le nombre de serveurs jouent) mais ils ont la mains sur les serveurs et le client, l’opti des paquets, de leur traitement, la fiabilité de la connexion,…Je te rejoins sur le choix de la résolution en amont, chez Ubisoft certains jeux séparent le pack 4K du reste du jeu. Mais on pourrait aller beaucoup plus loin là dessus… On en revient aux plugins dont je parlais, le launcher vérifierais les briques déjà présentes sur le PC, et ne téléchargerais que les éléments nécessaires.Côté optimisation un univers de possibles est ouvert, nouvelles manière d’empackter les jeux, stratégies poussées de mise en cache, accès des ressources organisées, … et ce sera de l’innovation au plus pur service du joueur. Les anciennes consoles était encore plus limitées qu’aujourd’hui, les dev rivalisaient d’astuces pour diminuer les besoin et maximiser le rendu. Il faudrait s’y remettre sérieusement plutôt que bêtement utiliser des produits sur étagère et de se dire qu’on vend un jeu sans opti pour les quelques gamers qui ont les moyens… Et que les autres baveront sagement devant twitch.Moi par le fait que ses pas dans le sable ne marquent pas :/




900 ms à l’adsl ? lol j’ai connu le 4-8-20 (adsl) et 30 mega (cable) je n’ai jamais eu 900 de ping … le souci vient du serveur sur lequel tu te connectes ;)


Bonjour,
ho le coup de vieux que je me prends en revoyant unreal 1er du nom :
https://www.youtube.com/watch?v=WTRmZ6aFEWM
C’était mon premier fps solo ^^ . Ca fait plaisir de voir la belle progression du moteur de 1998 a nos jours, déjà le unreal engine 3.nn sur les ps3 faisait déjà des merveilles mais là en tant réel sur un dev kit ps5 çà laisse rêveur, même si on sait deja que là c est juste une animation et qu il faut prendre en compte qu’ il faut y a ajouter le/les IA et autres paramétres/lignes de codes de gameplay etceetran, donc les jeux seront peut être pas aussi beau qu’une animation pure, mais le travail effectué chez Epic et les nouveautés de cette version 5.0 sont “ époustouflantes “.



Shadowman_2k3 a dit:


900 ms à l’adsl ? lol j’ai connu le 4-8-20 (adsl) et 30 mega (cable) je n’ai jamais eu 900 de ping … le souci vient du serveur sur lequel tu te connectes ;)




C’est clair ! Même en 56k yavait pas des pings de 900ms. C’est un ping de connexion satellite ça. :transpi:



On arrivait à jouer à Quake III en réseau sur Dreamcast, avec un modem 33kbps. Le ping était autour des 200ms de mémoire.



En DSL le ping se compte généralement en dizaines de ms pour un serveur situé en France ou dans un pays voisin.


Savez vous si c’est une démo qui ferait partie d’un vrai jeu une fois fini ?
Il me tenterait bien si c’était le cas ^^


bonjour,




Scylune a dit:


Savez vous si c’est une démo qui ferait partie d’un vrai jeu une fois fini ? Il me tenterait bien si c’était le cas ^^




C’est justement la question que je me poser en voyant le triangle de l une des touches des manettes playstation quand le personnage fait tourner la “ roue ” pour ouvrir le toit.
Il doit bien avoir un jeu dans le style des tomb raider en développement , qui sait peut être que l ‘on verra des remakes ou une suite de tomb raider ^^ wait and see…..



Scylune a dit:



horrus a dit:




Epic a indiqué que c’était juste une démo pour montrer les capacités de leur moteur, ils ont aucun projet d’en faire un jeu complet. Et pour le coup du bouton triangle qui apparait, c’est tout simplement parce que c’est une démo de gameplay, pour montrer que ce n’est pas pré-rendu.


Doublon - souci de connexion internet. Désolé.



secouss a dit:


On ne parle pas de limiter l’innovation ? L’optimisation c’est aussi de l’innovation ! Même microsoft sait maintenant faire de la MAJ partielle, mais quasi aucun jeu ne le fait, obligeant à télécharger des dizaine de Go de MAJ.




Déjà ça c’est faux, il y a pas mal de jeux qui n’installent pas 40Go de MaJ.
Le souci c’est que quand tu as un jeu très empaqueté avec des DRM, bah souvent ils sont obligé de mettre à jour beaucoup de blocs pour ne pas tout faire planter…
Je te rejoins sur un point : quand je vois un GTA V qui fait 95 Go, je trouve qu’on marche sur la tête…




La même avec les différents plugin (DirectX, Vulkan et compagnie) plutôt que les stocker dans un lieu commun chaque jeu est isolé de l’autre alors qu’ils partagent les mêmes briques (même ceux d’un même éditeur ne le font pas) [blabla sur la connexion des jeux en ligne] Mais on pourrait aller beaucoup plus loin là dessus… On en revient aux plugins dont je parlais, le launcher vérifierais les briques déjà présentes sur le PC, et ne téléchargerais que les éléments nécessaires.Côté optimisation un univers de possibles est ouvert, nouvelles manière d’empackter les jeux, stratégies poussées de mise en cache, accès des ressources organisées, … et ce sera de l’innovation au plus pur service du joueur.




Ça on sait très très bien faire, c’est d’ailleurs la base de ce qui se fait pour tous les logiciels qui tournent par dessus l’OS, avec les librairies partagées. C’est très visible pour n’importe qui qui touche à linux et tout l’aspect dépendances des logiciels installés en ligne de commande.
Dans Windows, on le voit aussi très bien avec la floppée de jeux qui te font installer des librairies “redistribuable visual c++ pour visual studio 20xx” => elles sont partagées entre les logiciels (dont les jeux).
Mais tout ça c’est pour le très bas niveau. Pour le plus haut niveau c’est juste impossible.
Déjà comme dit, du fait qu’il y a les soucis de versions et tous les jeux n’ont pas le même suivi des versions des libs : on aurait des jeux qui casseraient hyper facilement à cause de la MaJ d’un autre jeu, ou d’une lib commune… (déjà que ça arrive souvent de base… c.f. point précédent.)
Mais en plus, comme déjà dit aussi, il y a le problème de l’intégrité du jeu (i.e. non altération) : le dév n’a plus la main sur ladite librairie vu qu’elle devient partagée. Donc d’une part ne peut pas la customiser pour l’optimiser / la spécialiser pour le jeu qu’il développe et d’autre part cela permettrait une surface d’attaque non contrôlée (les DRM pourraient difficilement couvrir les libs partagées… voire impossible ?) pour changer le comportement du jeu en profondeur. (t’imagines, si les libs en question sont pour gérer l’aspect micro-transactions..?).




Les anciennes consoles était encore plus limitées qu’aujourd’hui, les dev rivalisaient d’astuces pour diminuer les besoin et maximiser le rendu. Il faudrait s’y remettre sérieusement plutôt que bêtement utiliser des produits sur étagère et de se dire qu’on vend un jeu sans opti pour les quelques gamers qui ont les moyens… Et que les autres baveront sagement devant twitch.




D’une part, tu te contredis toi-même : pour faire du partage de resource entre les jeux vidéos, tu es obligé de prendre des composant “sur étagère” (même si je n’aime pas le terme pour ici, parce qu’un composant sur étagère désigne un “CotS”, qui est plutôt hardware.. bref) de façon à ce qu’ils soient commun à plusieurs jeu… et donc si tu fais ça tu ne peux pas l’optimiser pour ton jeu de façon à demander moins de ressources… c’est contradictoire. On sent bien du coup que le coup des ressources partagées n’est pas une solution viable. Le domaine que tu crois être une vrai mine d’or pour les optis n’en est donc pas une : c’est une problématique du logiciel hyper connue, et déjà répondue avec la seule option raisonnable : avoir un minimum de cloisonnement entre les softs pour éviter que la moindre mise à jour casse tout.



D’autre part, les optis, ça existe déjà… Il y a plein d’autres façons d’optimiser un jeu (c.f Witcher 3, qui a fait aussi bien en 2015 que des jeux sortis depuis 2018 jusqu’à aujourd’hui), mais le principal problème ce sont les studios qui veulent pas mettre trop d’argent là dedans, et parce que c’est la toute dernière phase du développement d’un jeu, qui est -comme d’habitude- négligée dans le rush de fin pour boucler le jeu dans les contraintes temporelles et monétaires fixées.



Bref, c’est un éternel souci d’argent et de moyens, et le partage de lib est limite hors sujet dans la discussion…




Moi par le fait que ses pas dans le sable ne marquent pas :/
… et tu te plains que les jeux demandent trop de puissance de calcul… (déjà elle marche pas sur du sable mais de la roche..!)



(quote:46952:alf.red)
Assez d’accord, le rendu de l’eau est vraiment pas super. C’est le seul moment de la vidéo où j’ai laché un beurk :D Et aussi le petit glitch en haut à droite de l’écran à 4min 38




Le glitch me semble surtout être des cailloux qui tombent. Pour l’eau elle est pas dégueux non plus mais on sent que c’est pas parfait. Compréhensible qu’ils ne se soient pas attardés dessus du coup ahah.
Les fluides / objets déformables, ça a toujours été la bête noire des simulations…


Fermer