La vidéo d’un artiste 3D illustre son talent... et les capacités de l’Unreal Engine 5

La vidéo d’un artiste 3D illustre son talent… et les capacités de l’Unreal Engine 5

La vidéo d’un artiste 3D illustre son talent... et les capacités de l’Unreal Engine 5

La présentation de l’Unreal Engine 5 avait surpris par ses capacités de photoréalisme et surtout de gestion de la lumière, grâce à une nouvelle technologie nommée Lumen.

Lorenzo Drago, un artiste milanais, a publié il y a trois jours une vidéo de la gare Etchū-Daimon, située à Toyama au Japon. Elle est actuellement très partagée sur les réseaux sociaux, et pour cause : elle impressionne par son niveau de réalisme.

Sur son compte ArtStation, l’Italien dit avoir exploité Lumen pour l’ensemble de l’éclairage, mais pas Nanite pour la conception des modèles. Il indique avoir cherché un rendu le plus réaliste possible, utilisant notamment une caméra pour préserver les proportions.

Certaines textures ont été créées à partir de photos, mais la plupart ont été créées depuis une page blanche dans Painter. Le déplacement du personnage dans la vidéo a été réalisé à partir d’un suivi temps réel en réalité virtuelle, pour simuler la caméra et la lampe torche tenues en mains.

Commentaires (18)


Purée, il les monte quand ces escaliers ?!


C’est pas du temps réel (7fps) mais ça reste impressionnant.



Plus qu’à :
améliorer les perfs,
les animations de perso,
sortir les visages de l’uncanny valley pour une personne,
pour un groupe,
pour une foule



On devrait avoir du vrai photoréalisme pour UE 10



Le déplacement du personnage dans la vidéo a été réalisé à partir d’un suivi temps réel en réalité virtuelle, pour simuler la caméra et la lampe torche tenues en mains.




Pour moi c’est cela qui fait “réel” dans sa vidéo, plus que le photoréalisme de l’image.



Le photoréalisme d’une image “fixe”, on savait déjà faire. Ok, le rendu est très beau mais si on met la vidéo sur pause, y a rien qu’on ne savait pas faire.



Je serai impressionné le jour ou un mouvement programmé par un dev donnera le même type de vidéo que cette capture de mouvement temps réel.



(quote:2071785:127.0.0.1)
Le photoréalisme d’une image “fixe”, on savait déjà faire. Ok, le rendu est très beau mais si on met la vidéo sur pause, y a rien qu’on ne savait pas faire.




Sauf que c’est quasi en temps réel…



Mihashi a dit:


Sauf que c’est quasi en temps réel…




Surtout que la configuration est “raisonnable”: juste un 3700x et une 3080 !


Ça va être la foire aux walking simulators chez les Indés. :D



Hâte de tester un The Talos Principle ou The Witness-like sur ce moteur !


Talos principle avec ces graphismes, j’achète de suite !


Question con, on est sûr que c’est un rendu 3D et pas une vraie vidéo ? Parce que perso je suis totalement incapable de dire (ce qui en dit long sur la prouesse technique/artistique)


C’est rare qu’une gare soit vide, ou que la nuit arrive en 1 seconde. :D


Résultat impressionnant.



Après à titre perso je ne suis jamais fan du photoréalisme. Plus ça se veut proche du “vrai”, plus les défauts sauteront aux yeux et cela risque de mal vieillir. Surtout lorsqu’il s’agit de personnages, encore sur un décor cela passe mieux.



C’est pour ça que je préfère les rendus plus fantaisistes pour des personnages car le trop réaliste a tendance aussi à accentuer les défauts et mouvements imparfaits qui nous sont habituellement imperceptibles.



v1nce a dit:


C’est pas du temps réel (7fps) mais ça reste impressionnant.



Plus qu’à : améliorer les perfs, les animations de perso, sortir les visages de l’uncanny valley pour une personne, pour un groupe, pour une foule



On devrait avoir du vrai photoréalisme pour UE 10




Pour être aussi condescendant, tu dois faire des choses fantastiques. Aurais-tu la gentillesse de les partager ?



(quote:2071785:127.0.0.1)
Pour moi c’est cela qui fait “réel” dans sa vidéo, plus que le photoréalisme de l’image.



Le photoréalisme d’une image “fixe”, on savait déjà faire. Ok, le rendu est très beau mais si on met la vidéo sur pause, y a rien qu’on ne savait pas faire.



Je serai impressionné le jour ou un mouvement programmé par un dev donnera le même type de vidéo que cette capture de mouvement temps réel.




Il y a aussi la simulation de la caméra qui est vraiment bien faite. Je trouve que les bâtiments dans le fond sont bien foutus, avec un brouillard de distance maîtrisé, et la gestion de l’éclairage et de l’exposition sont convaincants.



Ça plus la simulation du mouvement, ça brouille bien les pistes.



KooKiz a dit:


Question con, on est sûr que c’est un rendu 3D et pas une vraie vidéo ? Parce que perso je suis totalement incapable de dire (ce qui en dit long sur la prouesse technique/artistique)




Perso il me semble avoir vu quelques défauts d’aliasing sur des bords verticaux de fenêtre montrant l’aspect synthétique, mais c’était très léger et vraiment furtif…



Mais bon des fois, on peut avoir des artefacts de compression et surtout de rehaussement de contours qui peuvent faire la même chose sur de la vidéo réel; mais dans ce cas le problème est généralement plus présent.



Non il n’y a pas dire c’est vraiment au propre au niveau de l’image et de l’éclairage sans parler de la capture des mouvements de la caméra !


La qualité est étonnante vu sur mon tel. Je l’aurai vu sans savoir, j’aurai dit ouais et alors ? C’est une gare ! mais y en un je ne sais quoi indéfinissable qui me dit que c’est bizarrement pas totalement naturel mais sans arriver à dire quoi (peut être la
modélisation des fils qui sortent de la boîte au plafond qui semblent trop bien rangés). Ça devient impressionnant. Dans quelques années il sera probablement impossible de discerner le vrai du faux… probablement qu’avec beaucoup plus de puissance de calculs tous les fakes deviennent possibles



elLolo a dit:


Pour être aussi condescendant, tu dois faire des choses fantastiques. Aurais-tu la gentillesse de les partager ?




Nulle condescendance, je suis sincèrement impressioné par la qualité du rendu pour du quasi-temps réel.
Après si on veut que ce soit jouable, il va falloir atteindre le temps réel. Vu que ce n’est pas optimisé (si j’ai bien compris) et vu la configuration employée ça semble à portée de main pour dans un ou deux ans.
On a déjà vu d’autres démos assez convaincantes pour ce qui relève du décor, donc j’ai listé les défis qui Ama restent à relever par ordre de complexité croissante. Si on compte une version pour un défi, ça nous renverrait à la version 10.
Je crois que tu as pris trop à coeur, cette numérotation et que tu as cru que je me moquais des concepteurs de l’engine, ce n’est pas le cas.
Certains défis ne sont a priori pas tellement du ressort du moteur mais plutôt de l’ingéniosité et des capacités de modélisation des utilisateurs et/ou de l’augmentation des capacités des CG.
On n’est plus très loin d’une modélisation faciale (temps réel non scripté) suffisamment réaliste pour qu’on s’y trompe mais à mon sens il manque encore un petit quelque chose.



Mihashi a dit:


Sauf que c’est quasi en temps réel…




Certes, mais ça c’est une évolution de la performance somme toute normale: GPU plus puissants, code plus optimisé, IA mieux entrainées…). Ce n’est pas une ®évolution des techniques utilisées pour le photoréalisme (modèle d’éclairage/ombrage, texturing…).



Comme je disais, tu prends n’importe quelle image fixe dans cette vidéo en on pouvait déjà la faire depuis plusieurs années.



(quote:2071955:127.0.0.1)
Certes, mais ça c’est une évolution de la performance somme toute normale: GPU plus puissants, code plus optimisé, IA mieux entrainées…). Ce n’est pas une ®évolution des techniques utilisées pour le photoréalisme (modèle d’éclairage/ombrage, texturing…).




Bah, si (d’après eux en tout cas) : « une nouvelle technologie nommée Lumen ».




Il s’agit d’une solution d’illumination globale, sans doute pensée pour répondre aux initiatives de Crytek en la matière :



« Elle réagit directement aux changements de la scène et de la lumière. Le système effectue un rendu d’interéflexion diffuse avec un nombre de rebonds infini et des réflexions indirectes spéculatives dans des environnements importants, détaillés, en s’adaptant du millimètre au kilomètre. Les artistes et concepteurs peuvent créer des scènes plus dynamiques avec Lumen, par exemple pour changer l’angle du soleil selon l’heure de la journée, allumer une lampe torche ou le rendu d’une ouverture dans le plafond, la lumière indirecte s’adaptera en conséquence. Lumen retire le besoin d’attendre la construction d’une lightmap et la modification des UVs — un gain de temps important lorsqu’il s’agit de déplacer une source de lumière dans l’éditeur et que le résultat est identique lorsque le jeu est lancé sur une console. »



(quote:2071955:127.0.0.1)
Comme je disais, tu prends n’importe quelle image fixe dans cette vidéo en on pouvait déjà la faire depuis plusieurs années.




Pas à cette vitesse là, même avec le matériel actuel.



Mihashi a dit:


Bah, si (d’après eux en tout cas) : « une nouvelle technologie nommée Lumen ».
Il s’agit d’une solution d’illumination globale, sans doute pensée pour répondre aux initiatives de Crytek en la matière




Le modèle d’illumination globale ca date pas d’hier. Voila ce qu’on faisait il y a 15 ans:




( https://en.wikipedia.org/wiki/File:Glasses_800_edit.png )



Ce qui évolue chaque année se sont les “astuces” pour réduire les temps de calculs : Deferred radiance transfer, Deep G-buffer, Dynamic Diffuse, … Donc du gain de performance, mais pas de gain en photoréalisme. C’est toujours le même modèle mathématique (cf page de wikipedia)


Fermer