Face Works : la vidéo de l’impressionnante simulation de visage de NVIDIA
Ne lui manque plus que les cheveux
Le 20 mars 2013 à 08h30
3 min
Sciences et espace
Sciences
Pendant sa keynote d'ouverture de l'édition 2013 de la GTC, Jen Hsun Huang, l'actuel PDG de NVIDIA, a mis en avant sa démo technologique Face Works. Comme nous l'évoquions alors, le rendu de celle-ci était plutôt impressionnant, ce qui n'était pas forcément très visible sur les captures que nous avions publiées. Heureusement, une vidéo vient d'être mise en ligne par le caméléon.
Pour faire la démonstration des avancées des GPU en manière de photo réalisme, NVIDIA a mis en avant deux démonstrations au début de la keynote d'ouverture de sa GTC. L'une d'entre elles se nomme Face Works et représente le visage (toujours chauve), d'un personnage nommé Ira.
Celui-ci a été créé en partenariat avec l'Institute for Creative Technology (ICT) de l'université de Californie du Sud. Il se base sur des captures de mouvements qui ne dépassent pas le dixième de millimètre afin de rendre bien plus réaliste le rendu final... et autant dire que le résultat semble au rendez-vous.
En effet, si en terme de lumière ou de texture, on a légèrement progessé depuis des démonstrations telles que Human head qui date de 2007, la façon dont s'exprime ce visage laisse présager d'un véritable bond en avant dans les films d'animation à venir ou dans les jeux de prochaine génération.
Au final, ce sont pas moins de 8000 instructions par pixel qui sont exécutées selon NVIDIA, soit 82 GFLOPS pour le rendu d'une image en 1080p, ou 4.9 TFLOPS à 60 FPS, sans parler de la puissance nécessaire pour appliquer les différents filtres au niveau des textures.
Celles-ci sont d'ailleurs plutôt imposantes : 32 Go pour l'ensemble des expressions gérées par la démo. Le tout est néanmoins compressé à 300 Mo via un découpage en huit zones des textures et seules celles qui disposent de spécificités sont gardées.
Au final, l'ensemble paraît relativement fluide sur la GeForce GTX Titan (4,5 TFLOPS) qui fait tourner la démonstration (8:40). Il n'est pas précisé si elle est seule ou accompagnée de petites soeurs, espérons que NVIDIA la mettra en ligne afin que l'on puisse vérifier le résultat sur n'importe quelle machine disposant de cette carte graphique.
Pour ceux qui voudraient revoir l'ensemble des moments de cette keynote, vous pourrez le faire via la playlist de vidéos ci-dessous :
Commentaires (36)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 20/03/2013 à 09h07
Le 20/03/2013 à 09h08
C’est pas si réalisme que ça au final, dans Skyrim en modding il y a mieux.
Le 20/03/2013 à 09h16
Le 20/03/2013 à 09h17
Le 20/03/2013 à 09h18
Le 20/03/2013 à 09h19
Le 20/03/2013 à 09h28
C’est surtout le grain de la peau que je trouve impressionnant. Les mouvements ne sont pas encore convaincants, la bouche semble botoxée/en latex et les yeux en verre, ils manquent d’expression (contraction des pupilles peut-être?).
Mais bon la performance mérite d’être signalée, je suppose qu’il faudra encore beaucoup de travail avant d’avoir un rendu complètement réaliste.
Le 20/03/2013 à 09h31
Excellent en effet, les micro expressions faciales et leurs impacts sur le reste du visage apportent énormément de réalisme. Néanmoins, je suis toujours perturbé par les yeux du gars dans la démo, suis-je le seul à percevoir quelque chose de figé ou mécanique ?
C’est vraiment le seul point que je ne trouve pas complètement crédible, mais difficile d’en expliquer la raison, absence de micro mouvements de l’oeil ? Pas de dilatation des pupilles ?
A mon avis c’est la somme de tout ça qui rend les yeux mécaniques, enfin c’est un avis personnel !
Le 20/03/2013 à 09h42
Le 20/03/2013 à 09h47
La 3D c’était génial au début, mais là ça devient nawak, tant d’efforts intellectuels qui déboucheront sur des jeux de guerre ou de zombies débiles.
Le 20/03/2013 à 09h50
Le 20/03/2013 à 09h52
J’y vois d’avantage la qualité de la (micro-motion) capture. Et pour le rendu ils balancent des données brutes (super gourmandes niveau mémoire) sur un morph-target.
Donc niveau hardware, ce que je vois c’est une bande passante de ouf.
Pour une application du type jeu vidéo, ont est encore loin (à moins de vouloir télécharger des jeux d’1TB, ET d’avoir RAM et disque qui puissent répondrent) .
Tant qu’il n’y aura pas un passage par une étape procédurale, cela restera inaccessible. J’entends par procédural un stockage des points de contrôle du skinning, et non de la position de chaque vertex comme ici.
Après pour le rendu, c’est cool, mais comme précisé plus haut, y a encore du travail sur le dents et surtout les yeux ; mais là c’est au niveau des shaders qu’il y a une lacune, j’ai personnellement toujours galéré dessus.
Le 20/03/2013 à 09h54
C’est incroyable ! La première vidéo montre les capacités d’une telle technologie.
Maintenant, je pense que le rendu de l’anime dans la vidéo, ne sera pas sur nos machines avant une bonne décennie.
Certes, c’est en progrès mais d’ici 5 ans, j’en doute personnellement.
Le 20/03/2013 à 09h58
Le 20/03/2013 à 10h29
Le 20/03/2013 à 10h41
Le 20/03/2013 à 08h42
La vidéo du gars est juste énorme ! " />
Ca fait peur, ce réalisme…
Le 20/03/2013 à 08h46
Les expressions faciales sont très bien rendues.
Par contre pour chipoter, les oreilles sont carrément bizarres…
Enfin vu le matos utilisé, ça veut dire qu’on ne verra sans doute pas ça avant 4-5 ans dans les jeux " />
Le 20/03/2013 à 08h47
Impressionnant vraiment " />
Tout y est, même les oreilles bougent en fonction des mouvements de la mâchoire et de la tension de la peau.
Les ombres et la lumière sont magnifiques.
Les rides et les plissements, les imperfections de la peau.
Même les dents semblent réelles.
Ca va donner dans les JV !!
" />
Le 20/03/2013 à 08h47
Comme le dit le sous-titre, il manque les cheveux, et ce n’est pas un hasard.
Ça montre qu’il manque encore un poil (" />) de puissance pour arriver au 100% réaliste.
En même temps, ça temps à montrer que la démo. est sincère, parce qu’elle avoue ses limitations.
Le 20/03/2013 à 08h50
Le reste de la vidéo est intéressant aussi je trouve… mais pour ceux qui ont la flemme:
Le lien vers la partie de la vidéo avec la démo
Sachant que c’est géré par une demi carte graphique (Titan quand même) j’imagine qu’on peut arriver à des choses assez marrantes avec deux ou trois dans un même PC… Si on suit un bon rythme ce genre de technologie va être bon marché et grand public pour dans 4 à 5 ans… j’ai hâte :-)
Le 20/03/2013 à 08h53
Bah et TressFX alors ? " />
Le 20/03/2013 à 08h58
Le 20/03/2013 à 08h59
Je trouve qu’ils n’ont pas encore totalement remontés la pente de l’uncanny valley, ça reste quand même un peu bizarre à regarder sauf quand il parle où ça devient carrément impressionnant et naturel (là, ils ont dû faire de la face capture sans rien retoucher).
Le 20/03/2013 à 10h44
Très troublant parce que cela se rapproche de l’humain…
Le 20/03/2013 à 11h17
http://www.gizmag.com/zoe-talking-head-avatar/26716/
Ils utilisent bien moins de données. Et ça marcherait même sur téléphone.
Le 20/03/2013 à 11h51
Le 20/03/2013 à 12h11
Peut-être, mais bien moins gourmand.
Le 20/03/2013 à 13h01
Le 20/03/2013 à 13h17
Le 20/03/2013 à 13h52
Le 20/03/2013 à 14h02
Oui en effet, mais Stallone a pour lui un bug sur toute la partie inférieure du visage " />
Le 20/03/2013 à 14h19
Le 20/03/2013 à 14h52
Le 20/03/2013 à 17h23
Le 21/03/2013 à 02h44