L'Unreal Engine 4.26 est disponible : visages plus réalistes, plugins DLSS/Reflex chez NVIDIA

L’Unreal Engine 4.26 est disponible : visages plus réalistes, plugins DLSS/Reflex chez NVIDIA

L'Unreal Engine 4.26 est disponible : visages plus réalistes, plugins DLSS/Reflex chez NVIDIA

La nouvelle version du moteur 3D est là, avec son lot d'améliorations et autres ajouts de fonctionnalités, toujours nombreux. Ils sont détaillés ici.

Epic Games en profite pour évoquer l'un de ses projets en cours : le MetaHuman Creator, qui vise à la création simplifiée de visages ultra réalistes, vidéo à l'appui.

Des exemples exploitables sont d'ores et déjà fournis, là aussi avec une vidéo de présentation. Un projet peut être téléchargé en attendant des nouvelles qui arriveront par email

De son côté, NVIDIA indique que DLSS est désormais exploitable sous la forme d'un plugin pour l'Unreal Engine. Reflex est disponible comme une fonctionnalité de la branche principale, alors que RTX a eu droit à quelques améliorations, détaillées ici.

Commentaires (14)


Le MetaHuman est vraiment impressionnant



eglyn a dit:


Le MetaHuman est vraiment impressionnant




Bof…



J’ai vu une vidéo d’un expert la dessus hier soir et sur sa machine de guerre ça tourne à 10 fps avec juste le personnage sur un fond noir. A la limite ce qui est impressionnant c’est le workflow.



(reply:1854151:skankhunt42 )




Ben graphiquement en tout cas c’est beau, c’est tout ce que je retiens pour les jeux des 10 prochaines années :D



Après c’est bien fluide sur la vidéo de présentation, j’imagine qu’ils ont une bonne config aussi ^^



Edit: je viens d’aller voir des vidéos de gens qui testent, et même en 4K c’est bien fluide


C’est impressionnant surtout de voir la nouvelle dimension qu’a pris EPIC depuis que Fortnite imprime des billets par liasse, et qu’ils se sont mis à se développer sur tous les fronts avec des politiques tarifaires trés agressives. Et la technologie conjointe ILM / EPIC “Stagecraft” qui a explosé grace à Mandalorian est entrain de vendre l’Unreal Engine à une toute nouvelle clientéle qui en est trés friande, surtout en ces temps de COVID



eglyn a dit:


Ben graphiquement en tout cas c’est beau, c’est tout ce que je retiens pour les jeux des 10 prochaines années :D Après c’est bien fluide sur la vidéo de présentation, j’imagine qu’ils ont une bonne config aussi Edit: je viens d’aller voir des vidéos de gens qui testent, et même en 4K c’est bien fluide




T’aura de la chance si un jeu sera capable d’afficher ça dans 10 ans… La vidéo c’est du pré calculé hein ! Ce genre de graphisme c’est possible depuis plus de 10 ans au cinéma. Comme je le disais plus haut l’important c’est le workflow.



Actuellement tu va mettre 200h à pondre un personnage pareil et ensuite ça sera à coup de capteur pour l’animation. Puis ça sera encore 200h pour pondre un nouveau personnage.



Leur nouveau workflow permet d’automatiser la création du personnage ainsi que l’animation en temps réel et sans capteur et tu peut ensuite copier coller sur un autre personnage.



Autrement dis, comparé à un GTA5 tu n’aura aucune différence. Au mieux de chez mieux tu aura peut être des PNG useless qui pourront en bénéficier. Et encore, car l’humain est une chose très basique et mathématique.



A la limite ce qui serais vraiment intéressant c’est de pouvoir utiliser ce machins pour des formes non humaines. Créer un cyclope et le rig puis l’animer, dur dur de copier coller depuis un humain.



(reply:1854183:skankhunt42 )




La vidéo est real time ….
Par contre sans détails de la ressource utilisée en sachant qu’il n’y a que le personnage d’apparent


Pour être tout à fait exact, UE 4.26 est sorti le 3 décembre (et la version 4.26.1 la semaine dernière). La nouveauté de la semaine est surtout la sortie de cette démo MetaHuman et du projet exemple.



Sheepux a dit:


La vidéo est real time ….




J’ai de gros doutes sinon ça aurais été mis en avant et / ou le framerate. D’ailleurs la vidéo ne tourne qu’a 24 fps. Mais bon allez admettons t’arrive à 60 fps “stable” avec ce genre de machin. Ensuite il te faudra intégrer le personnage dans le décors et le faire interagir avec d’autre personnages. Même avec du lods super adaptatif ça va ramer à mort.



Si ça ce trouve la démo tourne sur un pc à 100.000€ voir +. Pouvoir juste afficher un personnage à 24 fps c’est pas folichon. Sur un pc moyen ça tournera à 10 fps au mieux. Peut être 25 fps dans deux ans sur la nouvelle génération de carte donc ça sera toujours mort.



Tu attend encore deux ans et t’aura peut être ton fameux 50 fps. Mais bon c’est pas encore assez à moins d’avoir un jeu totalement vide. Donc encore deux ans d’attente. Et encore pour un personnage.



Donc oui, rendez vous pour 10 ans pour commencer à voir apparaitre des résultat graphique. Ca me fait penser au RTX. Pour le moment t’a 2 jeux qui doivent être full RTX et ça tourne à max 30 fps sur un pc de guerre à 10.000€. Et ça rend plus que moyen, il y à moyen de faire pareil en trichant.



(reply:1854257:skankhunt42 )




Je te trouve bien aigri dis moi :D
Je trouve ça plutôt cool comme technologie, et plutôt impressionnant question réalisme, c’est positif quand même :)
Je pense pas qu’on attende 10 ans avant de voir ça sur nos PC, quand je vois déjà le travail sur Detroit, ou même Cyberpunk (qui tourne à largement plus que 30fps sur mon PC avec le RTX hein ^^), je pense qu’à la prochaine génération de CG c’est plié :)


Peu importe les ressources qu’il y a derrière, c’est vraiment impressionnant !
Avec quelques années et de l’optimisation, ça bénéficiera aux jeux vidéos, mais certainement pas avant quelques années (5 ans ou plus ?).



Finalement, on est plus très loin du deep fake entièrement inventé !


En 2004, je m’étais amusé à modifier un bitmap pour avoir mon visage dans un jeu. Bientôt, on pourra jouer avec son visage en 3D et quelques clics. La technologie est spectaculaire et, ce, à l’échelle d’une vie! Wouah


La réalité virtuelle telle qu’imaginée dans la SF se rapproche en effet (avec des salons de discussion virtuels dans lesquels nos version numérisées se baladent). Ca me fait penser au système de discussion vocale de Star Citizen qui se base sur la webcam pour animer le visage du personnage.



(reply:1854257:skankhunt42 )
C’est du real time, c’est dans la description. On ne sait juste pas ce qui fait tourner, cependant s’ils le mettent en avant et que ce n’est pas utilisable ils se feront bien bash par les studios. Donc ca reste impressionnant, à voir la généralisation.



Y a pas que le jeu vidéo dans la vie… Unreal Engine est de plus en plus utilisé dans le cinéma. Là le rendu temps réel n’est pas vraiment nécessaire, sauf pour les décors comme dans The Mandalorian. Par contre la création facile de personnages ultra réalistes est intéressante.


Fermer