[Archives] AVATAR : Entretien avec Andy Jones, superviseur de l’animation au sein de Weta Digital
Article Cinéma du Mardi 03 Avril 2018

Retrouvez tous nos dossiers consacrés à Avatar !


Propos recueillis et traduits par Pascal Pinteau

Dès le début de sa carrière, Andy Jones s’est spécialisé dans l’animation de personnages 3D hyperréalistes. Après avoir développé les figurants virtuels de TITANIC  (1997) et la monstrueuse vedette de GODZILLA (1998), Jones effectue un travail de pionnier sur les premiers clones d’humains de FINAL FANTASY (2001). Il perfectionne cette approche dans LE DERNIER VOL DE L’OSIRIS, remarquable court-métrage qu’il réalise en 2003, et qui est inclus dans la compilation ANIMATRIX. Jones travaille ensuite sur les animations de I ROBOT (2004), CAPTAIN SKY ET LE MONDE DE DEMAIN (2004), ZATHURA, UNE AVENTURE SPATIALE (2005) et SUPERMAN RETURNS  (2006), avant d’assumer la direction de l’animation d’AVATAR.

Vous avez acquis une expérience exceptionnelle dans la création de personnages humains hyperréalistes en 3D, de FINAL FANTASY  à AVATAR. Quels sont les progrès les plus significatifs qui ont été accomplis pendant ces huit ans qui séparent les deux films ?

Nous avons beaucoup avancé dans les domaines de l’animation faciale, du rendu de la peau, et du fonctionnement des muscles. Nous sommes plus proches de la réalité anatomique.

Volker Engel nous a expliqué récemment qu’il avait utilisé un nouveaux logiciel appelé Volume Breaker pour générer semi-automatiquement les effets de destruction des bâtiments dans 2012. Bien qu’il aime filmer des maquettes, il a admis qu’elles pourraient vite devenir une technique du passé. Pensez-vous que les nouvelles technologies qui sont développées pour la capture de performance pourraient remplacer en partie ou totalement certaines techniques, comme les maquillages spéciaux, ou l’animation traditionnelle ?

Je crois qu’il est difficile de répondre dans un sens ou dans l’autre à cette question, parce que l’on n’a que très peu de moyens d’estimer comment les techniques de capture de performance vont évoluer dans le futur. A l’heure actuelle, les systèmes que nous employons permettent de recueillir à peu près 80% des données qui servent à animer un personnage 3D. Mais ce qui permet d’obtenir un résultat vraiment naturel, ce sont les 20% qu’apportent les animateurs en complétant ces données. Cela crée une énorme différence. Pour vous donner un exemple précis, quand on observe le résultat d’une capture d’expressions faciales « brute » sur un personnage 3D, on voit immédiatement tout ce qui manque pour que cela semble réaliste.

En plus des données recueillies par le système, vous pouviez aussi vous référer à des prises de vues en vidéo des acteurs, pour vérifier quelles étaient leurs postures précises…

Oui. Pendant les séances d’enregistrement en capture de performance, il y avait toujours de 4 à 8 caméras HD qui filmaient la scène sous différents angles. Jim utilisait ces prises de vues vidéo pour préparer le montage de son film, car il ne pouvait pas vraiment utiliser les images brutes obtenues à partir de la capture de mouvement pour faire cela. Les images vidéo représentaient mieux les performances réelles des acteurs. Etant donné que Jim avait déjà choisi ces plans-là, les animateurs pouvaient s’y référer en toute confiance, et y puiser les nuances de jeu qui manquaient dans les données de capture, afin de les transférer sur les personnages 3D.

Quelles ont été les plus grandes difficultés à résoudre pour parvenir à animer les personnages et les décors d’AVATAR ?

D’abord et avant tout, les expressions faciales des Na’vis. Depuis le premier jour, c’était la préoccupation principale de Jon Landau et de James Cameron. Ils se demandaient si elles allaient être crédibles et si nous arriverions à reproduire exactement les performances des acteurs. Quand Sam Worthington et Zoe Saldana ont été choisis pour tenir les rôles principaux, nous savions que notre objectif était d’animer leurs personnages 3D de manière si réaliste qu’ils soient en mesure de « mener » le film, et de s’attirer immédiatement la sympathie des spectateurs. Pour atteindre ce but, il a fallu concevoir des systèmes d’animation des expressions très sophistiqués et très précis, afin d’imiter parfaitement le comportement des vrais muscles du visage. Nous avons étudié attentivement l’anatomie d’un visage humain pour réaliser ces travaux. Et quand nous sommes passés à la modélisation et à la conception des animations faciales, nous avons fait des recherches très poussées pour reconstituer en 3D l’anatomie des visages de chacun des acteurs principaux. Disons qu’il fallait connaître les proportions et la localisation de leurs vrais muscles faciaux, et savoir comment ils fonctionnaient, afin de pouvoir les reproduire en 3D sur les personnages de Na’vi, et obtenir ainsi des expressions qui soient identiques.

Serait-il exact de dire que le modèle 3D de l’avatar Na’vi de Jake a la même forme de crâne et les mêmes masses de muscles faciaux que Sam Worthington ?

Oui, c’est globalement cela. En tous cas, même si ce n’est pas identique à 100%, c’est aussi proche que possible de l’anatomie de Sam Worthington, une fois qu’elle est transposée sur le visage et sur le corps d’un Na’vi. Cependant, comme la silhouette d’un Na’vi est beaucoup plus allongée que celle d’un homme, et que Jim tenait à ce que ce peuple soit extrêmement mince, comme des sportifs de haut niveau qui ont moins de 2% de masse graisseuse dans le corps, nous avons dû modifier la musculature de Sam pour construire le personnage de son avatar. Mais nous avons quand même réussi à transposer les mouvements de ses muscles, ainsi que la texture de sa peau. En ce qui concerne les volumes des expressions faciales, comme l’amplitude d’un sourire et le gonflement simultané des joues, il était géré au final par les animateurs, qui manipulaient les systèmes de coordination des muscles 3D que nous avions mis au point pour gérer semi-automatiquement telle ou telle mimique. Ce qu’il faut comprendre, c’est qu’un sourire mobilise des dizaines de muscles faciaux, et que l’on ne peut pas animer indépendamment, un par un, tous les muscles qui contribuent à animer la peau. C’est la raison pour laquelle Jeff Unay et moi avons passé du temps à développer des commandes semi-automatiques qui permettaient d’obtenir des expressions de base, que les animateurs pouvaient ensuite modifier pour obtenir des variantes encore plus proches des expressions des acteurs.

Diriez-vous que la structure musculaire des personnages 3D d’AVATAR est l’une des plus complexes qui ait été modélisée, jusqu’à présent ?

Oui, en tous cas, c’est ce que nous nous plaisons à croire ! (rires) Le système musculaire est très sophistiqué, et nous permet d’accentuer les actions de certains muscles pendant que les personnages bougent ou se battent, ce qui rend leur animation encore plus vivante. Je crois que l’on peut dire que les personnages d’ AVATAR représentent une avancée dans ce domaine. Nous avons beaucoup travaillé en ce sens.

Diriez-vous qu’il y a pratiquement autant de muscles dans l’anatomie d’un Na’vi 3D que dans celle d’un véritable être humain ?

Oui, exactement. Nous avons modélisé les Na’vis en nous référant à l’anatomie humaine. Nous avons peut-être éliminé certains muscles mineurs, mais tous les muscles principaux sont bien représentés. Il y en a une quarantaine dans un visage humain, et nous disposons du même nombre de contrôles pour animer les visages des personnages 3D, et pour produire des variantes des expressions principales.

Vous disiez que les séances de capture de performance généraient environ 80% des données d’animation. Pourriez-vous nous décrire précisément quels étaient les 20% qui manquaient et que vous deviez compléter ?

Dans la plupart des cas, il s’agissait de compléter des nuances de performance qui avaient échappées au système. Disons que les données étaient un peu estompées, si vous voulez. Que les attitudes les plus extrêmes de certaines poses ou de certaines expressions manquaient. Et ce sont justement ces extrêmes qui donnent toute leur vivacité aux gestes et aux expressions des acteurs. Il ne faut pas imaginer que le système de capture de performance est un procédé automatique, que l’on actionne en pressant un bouton, et qui anime totalement les personnages. Le système fonctionnait très bien, mais il fallait tout de même corriger, compléter et finaliser l’animation des personnages. Les données générées par les captures produisaient quelquefois des « images-clé » qu’un animateur n’aurait jamais utilisé s’il avait créé cette scène de A à Z. Il fallait donc les corriger pour obtenir des poses-clés plus naturelles et plus proches de la performance des acteurs. Nous pouvions aussi corriger ces données brutes pour tenir compte de l’élasticité et de la souplesse de la peau, toujours dans le but d’obtenir un rendu plus fluide et plus réaliste.

Pour être sûr de bien comprendre ce que vous nous expliquez, cela signifie que quand Sam Worthington souriait de manière furtive, le système de capture pouvait « rater » le point le plus extrême de son sourire, et que vous deviez donc le reconstituer par la suite, en vous basant sur les images vidéo de la scène ?

Oui, c’est cela : les données extrêmes du sourire pouvaient manquer, ou même des données plus générales de l’ensemble de son expression, pendant une demi-seconde. Nous avons toujours essayé de respecter les données originales, sauf quand il s’agissait de petites erreurs techniques. Notre rôle consistait à les compléter, en nous basant sur l’enregistrement vidéo de la performance de l’acteur. Les décisions prises par les animateurs ne visaient qu’à restituer toute la spontanéité du jeu des comédiens.

Vous avez dû animer entièrement les doigts, n’est-ce pas ?

Oui. Le système de capture ne pouvait pas les repérer dans l’espace, donc nous les avons animés. Un des autres éléments du visage que les animateurs ont pris beaucoup de plaisir à utiliser, ce sont les oreilles des Na’vis, qui nous aident à refléter leur émotions et leurs pensées.

L’animation des queues des Na’vi vous a certainement aidé aussi à exprimer ces émotions…

Oui, c’était également intéressant de se servir de ces mouvements-là. Cependant, Jim nous avait dit qu’il souhaitait que les queues des Na’vis fonctionnent davantage comme celles des lézards ou des grands fauves, et leur servent davantage de balanciers, pour garder leur équilibre. La queue d’un guépard, par exemple, est relativement rigide. Beaucoup plus que celle d’un chat domestique, qui reflète directement son état d’esprit.

Est-ce que certaines données biologiques réelles ont été utilisées pour créer le design des animaux imaginaires de Pandora ?

Oui, nous avons trouvé la plupart de nos références en observant des documentaire animaliers.

Découvrez la suite de cet entretien lundi prochain !


Retrouvez tous nos dossiers consacrés à Avatar !


[En discuter sur le forum]
Bookmark and Share


.