LE HOBBIT, UN VOYAGE INATTENDU : Entretien exclusif avec Eric Saindon, superviseur des effets visuels au sein de Weta Digital – Seconde partie
Article Cinéma du Dimanche 06 Janvier 2013

[Retrouvez tous nos dossiers consacrés au Hobbit !]


Ayant fait ses premières armes en tant que superviseur sur LE SEIGNEUR DES ANNEAUX, Eric Saindon a poursuivi sa carrière au sein de Weta Digital pour travailler sur I ROBOT, KING KONG, X-MEN III, LA NUIT AU MUSEE, LES 4 FANTASTIQUES et AVATAR avant de retrouver aujourd'hui les Terres du Milieu.

Propos recueillis et traduits par Pascal Pinteau

À quel point les techniques de Weta Digital ont-elles changé entre la réalisation des effets visuels du SEIGNEUR DES ANNEAUX et de ceux du Hobbit ?

Quand je suis arrivé chez Weta Digital, il y a 13 ans, nous n’étions que 13 personnes à travailler sur les effets numériques du premier volet du SEIGNEUR DES ANNEAUX. Nous utilisions alors la technologie Maya brut, tel qu’il était une fois sorti de son emballage et installé sur nos ordinateurs. Nous employions aussi des petits logiciels écrits par des membres de notre équipe, au cas par cas, quand un problème se présentait. Nous nous battions pour arriver à produire chaque plan l’un après l’autre, et je dois dire qu’ils n’étaient pas générés par une technologie très sophistiquée, en dehors du programme Massive, qui était l’une des innovations les plus importantes à l’époque. Ce logiciel inspiré de ceux de certains jeux vidéo nous a permis de donner une intelligence artificielle à des milliers de combattants 3D et de les "piloter" automatiquement pendant les scènes de bataille. Chaque personnage – humain, Elfe ou Orc – disposait d’une série d’animations de combat et d’attitudes, et pouvait avoir des interactions logiques avec les personnages qui l’entouraient, c’est-à-dire les défier, puis engager le combat, et selon la tournure des évènements, terrasser son adversaire et poursuivre son chemin, ou être frappé mortellement et s’effondrer sur le sol. Nous avons beaucoup travaillé sur l’exploitation de Massive. Franchement, comme nous débutions tous à ce moment-là, notre objectif était de réussir à produire tous les plans truqués du film à temps. Les effets de ce premier épisode ont été réalisés en improvisant beaucoup de choses pendant que nous avancions. Nous croisions les doigts et espérions obtenir le meilleur résultat possible. Dès que nous sommes passés au second puis au troisième épisode, nous avons disposé de beaucoup plus de technologie. L’équipe s’est considérablement agrandie, nous avons écrit un logiciel de dispersion de la lumière à l’intérieur des volumes 3D – le "Sub-surface scattering" – et différents programmes qui nous ont permis d’améliorer énormément les outils numériques à notre disposition. Les principales différences entre notre manière de travailler à cette époque et maintenant, c’est l’organisation de notre "pipeline", c’est-à-dire du système qui permet de suivre la production d’un plan de A à Z, en gérant la création de tous les éléments qui le composent par toutes les personnes qui interviennent dessus à tour de rôle. Un pipeline dans le domaine des effets visuels, c’est un peu comme la chaîne d’assemblage d’une voiture dans une usine automobile. Le plan en cours de fabrication passe de service en service, d’infographiste en infographiste, de validation en validation, jusqu’au moment où il est terminé et intégré au film. Le fonctionnement de notre pipeline actuel est extrêmement performant. Il se met en route dès que Peter nous envoie un nouveau plan en prises de vues réelles…

On imagine que les modèles 3D des créatures doivent figurer parmi les premiers éléments sur lesquels vous travaillez en amont…

Dès que le design des créatures est validé, les modèles 3D des personnages sont construits avec leur squelette articulé, leur musculature, leur peau, leurs cheveux, leurs vêtements et leurs accessoires. Les systèmes de simulation des cheveux, des muscles et de la peau sont beaucoup plus sophistiqués aujourd’hui. Nous avons fait beaucoup de travaux de recherche et de développement ces dernières années et nous avons écrit nos propres logiciels pour générer tout cela. Le grand avantage, c’est que nous disposons à présent de plus de liberté créative pour réaliser les choses à notre manière. Cela nous ouvre beaucoup plus de possibilités pendant la phase de design des créatures, puis quand nous les animons et les faisons vivre à l’écran.

Pouvez-vous nous donner quelques exemples précis de procédures de trucages qui sont plus faciles à réaliser aujourd’hui, et aussi des exemples d’effets qui étaient presque impossibles à faire voici dix et que vous pouvez créer à présent de manière satisfaisante…

Je crois que cela tient au nombre de choses que nous sommes en mesure de réaliser aujourd’hui. Plus les ordinateurs deviennent rapides et puissants, plus notre technologie devient sophistiquée et performante. Nous pouvons donc obtenir des résultats bien plus poussés dans tous les domaines. À l’époque du SEIGNEUR DES ANNEAUX, il fallait 12 heures de calcul pour obtenir le rendu d’une image 3D finalisée d’un troll. Aujourd’hui, les trolls que nous animons dans LE HOBBIT ne sont pas radicalement différents dans leur apparence globale, et paradoxalement, en dépit du fait que nos ordinateurs sont beaucoup plus rapides, le temps de calcul pour produire une image est resté aussi long qu’avant. Cela peut sembler étrange, mais cela est dû à l’amélioration considérable des détails du rendu des trolls : comme il est infiniment plus sophistiqué, les calculs sont donc beaucoup plus nombreux et plus complexes. Nos nouveaux logiciels gèrent l’emplacement réaliste des pores sur leur peau et la manière dont les rides se forment sur l’épiderme pendant les mouvements. Le fonctionnement de nos nouveaux muscles virtuels reproduit celui des muscles humains, et les interactions entre les muscles, le derme et l’épiderme sont plus bien poussées que tout ce que nous aurions pu imaginer à l’époque du SEIGNEUR DES ANNEAUX. Je vais vous donner un autre exemple : il y a dix ans, pour simuler les mouvements des chevelures des personnages 3D, nous fixions des gros bouts de simulations de tissus recouverts de textures de cheveux sur leurs têtes, et les cheveux étaient animés par groupes de mèches. Aujourd’hui, nous avons la capacité d’animer indépendamment chaque cheveu sur la tête d’un personnage, et de gérer automatiquement les collisions avec les autres cheveux qui l’entourent, pendant que la chevelure bouge. Si la création de ces personnages 3D est toujours aussi longue, le résultat à l’image est dix fois supérieur. Pour résumer tout cela, on pourrait dire que plus vite nous pouvons calculer le rendu des éléments qui constituent un personnage en mouvement, plus nous créons des logiciels sophistiqués pour perfectionner son apparence et nous approcher de l’imitation du fonctionnement et de l’aspect réel du corps humain. Donc, plus les procédures sont exécutées rapidement grâce aux performances des machines, plus nous ajoutons de nouvelles tâches pour aller plus loin dans l’hyperréalisme. Le gain ne se mesure donc pas en temps, mais en qualité du résultat, qui progresse sans cesse.

Justement, vous arrive-t-il de faire des économies de temps de calcul en gérant des rendus de qualités différentes, par exemple en utilisant les rendus les plus sophistiqués pour les personnages en gros plan, et des rendus simplifiés pour les personnages lointains, au fond de l’image ?

Franchement, le public est devenu si averti que nous ne pouvons plus tricher ainsi autant que nous le faisions par le passé ! Pendant la réalisation de la trilogie du SEIGNEUR DES ANNEAUX, il nous arrivait fréquemment d’employer des modèles de personnages d’arrière-plan qui étaient simplifiés et peints plus sommairement. Aujourd’hui, nous n’essayons plus de recourir à ces astuces. Toutes les animations passent par le même pipeline technique. Tous nos personnages secondaires et nos figurants 3D ont des animations faciales et musculaires aussi perfectionnées que celles des personnages principaux vus en gros plan. Nous avons fait tellement de progrès en développant les technologies qui permettent d’animer nos "vedettes" que nous avons appliqué les mêmes techniques pendant la création des doublures numériques des acteurs, et notamment celles de Bilbo et des Nains. Leur système d’animation faciale est extrêmement complexe, et permet de disposer de doublures qui peuvent être substituées aux véritables acteurs d’une image à l’autre sans que les spectateurs ne puissent s’en rendre compte. En ce qui concerne les figurants 3D, nous n’avons pas à nous soucier de reproduire des expressions et une gestuelle précises, mais ils bénéficient quand même de systèmes d’animation et de rendu identiques.

Les costumes des nains sont très élaborés : ils sont composés de cuir, de fourrure, de tissus épais, de laine, bref, de matériaux très variés. Pouvez-vous nous expliquer comment vous avez perfectionné les simulations de tissus ou de matériaux qui existaient auparavant pour mieux reproduire ces différentes matières ? Différencier les plis d’une veste de cuir de ceux d’une chemise en tissu épais ne doit pas être facile à faire…

En effet, nous avons revu la manière dont nous simulons les vêtements. La principale différence de cette nouvelle approche, c’est que nous partons à présent des patrons des costumes, qui nous ont été donnés par la costumière Ann Maskrey, et que nous scannons aussi des échantillons des différents cuirs et tissus. Nous utilisons le patron du costume pour le reconstituer virtuellement, en cousant en 3D les différentes pièces entre elles exactement comme on le fait dans le monde réel. Nous employons des simulations de matériaux très proches des échantillons originaux, jusque dans les détails des fils qui ont servi à coudre le costume. Il faut que tout corresponde dans les moindres détails, et pour y parvenir, nous traitons séparément chacune des couches d’une tenue. Si vous avez bien observé les costumes des Nains, vous avez remarqué que certains costumes sont composés de nombreuses épaisseurs superposées, par-dessus lesquelles ces personnages portent aussi des éléments renforcés à la manière d’une armure. Eh bien, toutes ces couches sont reconstituées et animées de manière à réagir exactement comme les vrais costumes se comportent quand les acteurs bougent.

Iriez-vous jusqu’à dire que vous pouvez désormais reproduire parfaitement en 3D le comportement de matériaux aussi différents que le tissu de coton, la soie et le cuir ?

Oui, je dirais que nous en sommes capables. Les seules petites différences de rendu qui peuvent se produire entre un vrai costume et sa copie 3D tiennent au fait que dans certains cas, nous ne savons pas exactement de quel type de tissu telle ou telle pièce de costume d’un personnage secondaire était composée. Ce sont des choses qui arrivent quand des équipes travaillent 24h sur 24 sur des costumes pour que tout soit prêt chaque matin pendant le tournage : certaines informations ne sont pas référencées. Si nous ne pouvons pas obtenir les détails nécessaires en dépit de nos recherches, nous avons encore la possibilité de tricher un peu en utilisant une simulation très proche sans que cela ne se remarque. Ce morceau du costume 3D n’aura peut-être pas le même comportement que le vrai, mais en tous cas, son apparence sera identique.

Utilisez-vous beaucoup les doublures numériques des acteurs principaux dans ce premier épisode du HOBBIT ?

Nous les utilisons quelquefois, uniquement pendant les secondes critiques où elles sont indispensables. Dans la plupart des cas, nous avons recours à la doublure numérique quand une action ne peut être filmée ni avec l’acteur, ni avec le cascadeur qui le double, pour des raisons de sécurité. Je pense à des moments comme ceux où l’un des trolls de la forêt saisit Bilbon dans son énorme main et le lance un peu plus loin. Ou aux plans dans lesquels les costumes de certains personnages commencent à brûler. Comme il est impossible de tourner cela en vrai en éliminant à 100% le danger, on préfère s’en abstenir et recourir aux effets numériques.

Êtes-vous amenés à faire des retouches de l’aspect général des doublures 3D pendant leur animation dans plan, ou les diverses simulations que vous avez mises en œuvre gèrent-elles automatiquement et parfaitement les animations secondaires comme les mouvements des cheveux et des vêtements ?

Quand nous substituons les doublures 3D aux acteurs, il peut arriver que les animations des costumes paraissent bizarres, même si elles sont réalistes et obéissent de manière logique aux lois de la physique. Dans ces cas-là, nous sommes obligés de stopper la simulation automatique et d’animer manuellement ces éléments du costume, afin d’obtenir le résultat que souhaite Peter.

À quelle résolution les effets visuels du HOBBIT ont-ils été créés ? 4K ? Étant donné que le film est présenté en relief et au double de la vitesse de projection habituelle, la quantité de données à manipuler et à stocker a dû être colossale : pouvez-vous nous parler de cet aspect du travail des effets visuels ?

Oui. Je n’ai pas le nombre exact de données qu’il faut gérer et stocker pendant toute la production du HOBBIT, mais ce sont effectivement des quantités énormes, en raison de la résolution de 4K qui est 4 fois supérieure à la résolution 2K standard, du fait qu’il faut créer deux images selon des angles de vues légèrement différents pour obtenir une perception du film en relief, et de la cadence de tournage et de projection à 48 images par secondes. Je crois me souvenir qu’en additionnant toutes les données du premier épisode du SEIGNEUR DES ANNEAUX, on devait arriver à un total compris entre 5 et 10 téraoctets (un téraoctet = mille milliards d’octets), tandis que chaque épisode du Hobbit représente 5 petaoctets de stockage (un petaoctet = 1 million de milliards d’octets).

La suite de l’entretien avec Eric Saindon paraîtra prochainement sur ESI !

[En discuter sur le forum]
Bookmark and Share


.