Géométrie faciale haute résolution à partir de photos simultanées

GO TO ADMIN PANEL > ADD-ONS AND INSTALL VERTIFORO SIDEBAR TO SEE FORUMS AND SIDEBAR

Shadows

Rédacteur Web - Equipe 3DVF
Membre du personnel
#1


Le CGL* (Computer Graphics Laboratory) de l'ETH Zurich travaille sur une technique de reconstruction de la géométrie faciale à partir de photos simultanées : en prenant un visage sous plusieurs angles différents, avec plusieurs appareils photos synchronisés, l'équipe de recherche réussit à obtenir l'équivalent d'un scan 3D du visage, avec une marge d'erreur inférieure au millimètre.



Après la prise de vue, la reconstitution se fait par paire d'images, ce qui donne une série de reconstructions en relief, qui serviront à créer le mesh.



La partie "mesoscopic augmentation" du processus utilise un autre procédé : l'algorithme qui précède, utilisant la vision stéréo, ne peut pas reconstituer rides et pores, qui ont un relief trop fin.

Les auteurs de la méthodes ont utilisé une approche sur laquelle d'autres chercheurs ont déjà travaillé, à savoir utiliser les propriétés de la peau : les creux légers tels que les rides sont plus sombres sur les photos prises, car moins de lumière leur parvient.
L'algorithme utiliser pour exploiter cette différence d'intensité se concentre sur les variations d'intensité spatialement réduites : un point sombre très petit est un pore, un point sombre plus large a de fortes chances d'être un grain de beauté (il faut donc l'ignorer).

Voici le processus en vidéo, avec également la phase de calibration des caméras (entièrement automatique, elle se base sur la photo d'un objet de référence).

[flash=640,505]http://www.youtube.com/v/JX5stsU6xfE?fs=1&hl=fr_FR[/flash]

Synchroniser plusieurs appareils photo (7 en l'occurrence, mais on peut évidemment faire varier le nombre) n'est pas évident. Le papier technique parle d'une marge d'erreur de 0,1 seconde ; suffisant pour une posture statique, mais pas pour des expressions transitoires, telles que les étapes d'une claque, ci-dessous. La méthode est alors de faire une prise de vue plus longue (supérieure à une seconde) dans le noir, et de donner un coup de flash.
Autre limitation possible, le système n'aime pas les reflets spéculaires, qui perturbent la reconstruction ; les auteurs proposent d'utiliser un éclairage indirect, ou d'utiliser de la polarisation (un filtre polarisant sur la source lumineuse, un autre sur l'appareil photo, ce qui permet de limiter les reflets directs).



Notons enfin que le système fonctionne aussi sur une peau sombre ou noire.



Le but du projet était de développer un système de reconstruction géométrique qui ne nécessite pas du matériel très coûteux (laser, lumière active) : manifestement, le but est atteint !


Pour plus d'informations, et pour lire la publication en pdf, ça se passe sur le site du CGL*.

*Nous avons déjà parlé de ce laboratoire récemment, dans une news sur le motion-blur.
 

Wonders

Membre très actif
#3
Y a-t-il encore un avenir pour les modeleurs ?

Un acteur, une séance photo, un réalisme absolu, un texturing tout fait et réel, et des morph-targets à la volée en 2 minutes... ne nous restera-t-il plus alors qu'à faire des persos cartoon et des extra-terrestres/monstres ? En gros, une journée avec un acteur coûte-t-elle plus chère qu'une semaine ou deux de réal. par un artiste, pour un résultat sans doute meilleur/plus fidèle ?

Je sais que le principe existe depuis longtemps, mais là on avance vraiment vers le mainstream et c'est assez perturbant.
C'est un peu les hyper-réalistes voyant l'arrivée de la photo...

Et de l'autre côté on a des rigs de plus en plus automatisés – ou plutôt des rigs automatiques qui marchent de mieux en mieux, de l'animation procédurale genre endorphin qui ne peut que s'améliorer, des solutions de rendu qui demandent de moins en moins de mise au point, genre Maxwell quand il est arrivé avec son sun-sky automatique et son set-up minimaliste (j'ai des clients qui l'utilisent pour se faire des rendus "maquette", alors qu'ils n'auraient jamais touché à Mental Ray avec un bâton de deux mètres...).
Pour le lighting, on peut déjà imaginer une analyse de la scène/caméras/sujets, des curseurs pour définir le mood que l'on souhaite, et un setting qui se fera automatiquement... et puis un cadrage et un rendu mis en place selon une base de donnée d'images correspondant à ce que l'on souhaite, et une application "intelligente" des formules du "beau".

Enfin bref, il y a un sujet sur "votre avenir dans la 3D"... et plutôt que l'Inde ou la Chine, je pense que c'est des softs que va venir la vraie compétition...
 

Shadows

Rédacteur Web - Equipe 3DVF
Membre du personnel
#5
Pour le moment le système est limité, par contre le jour où on aura de la vidéo vraiment haute résolution (pas 1080p, c'est insuffisant pour avoir les pores, je pense) à 60fps, on pourra faire de la reconstitution d'animation...

Après, dire que c'est la fin des modeleurs, ça me semble extrême : les scanners existent déjà pour les objets fixes, est-ce que ça signifie que les modeleurs ne font plus aucun objet issu du réel ? Pas vraiment... Il reste plus rapide de modéliser un seau ou une vache pour un jeu vidéo que de les scanner.

Dans le même ordre d'idée : depuis l'apparition des appareils photo numériques performants, est-ce qu'on arrête de faire des textures ?
 
P

ptichat

Guest
#6
Héhé, mais que ce soit le sujet sur la compétition de pays moins cher, ou meme d'étudiant francais ou bien ici encore face a des softs qui facilite l'accès a une plus haute fidélité faut toujours que ce soit ramené a la crainte, la peur.

C'est qd meme pas nouveau tout ca. Depuis 20 ans a chaque nouveau soft on peut faire de nouvelles choses et on facilite l'accès a celle qu'on pouvait deja faire.

Sais pas moi, vous devriez etre content de pouvoir vous focaliser sur l'artistique, l'art et la manière plutot que la technique pur et dur d'un soft mal branlé pour torcher un lighting correct ou une modé propre.

Un lighting par exemple, c'est mettre en valeur un objet, un cadrage, l'action, jouer des teintes pour la narration, etc...

Une modé, c'est un objet texturable, animable, et ca rien d'automatiser sait le faire.
 
Haut