Exclusif : Dans les coulisses de l’apocalypse - Les effets visuels de 2012 réalisés par le studio Double Negative
Article Cinéma du Jeudi 07 Janvier 2010

Entretien avec Gavin Graham, superviseur des séquences 3D, et Alex Wuttke, superviseur des effets visuels

Propos recueillis et traduits par Pascal Pinteau

Quelle a été votre formation initiale ?

Alex Wuttke : J’ai d’abord étudié les arts graphiques dans l’école des beaux arts de St Martin. Après y avoir obtenu un diplôme, j’ai été designer freelance pendant quelques années. Je me suis intéressé de plus en plus au dessin sur ordinateur, aux effets spéciaux numériques et à l’animation 3D, et j’ai décidé de changer d’orientation. Après avoir suivi une formation pour maîtriser les principaux logiciels 3D de l’époque, j’ai eu la chance de faire mes débuts dans les effets visuels au sein de la « Creature shop » de Jim Henson, à Londres, il y a une quinzaine d’années. C’était un endroit formidable pour se familiariser avec les trucages, car on essayait toujours de mêler les effets de plateaux, faits devant la caméra, et les effets numériques. Je suis arrivé au moment où ils venaient de fonder leur département d’effets 3D. Ils achevaient les effets visuels de Lost in Space, film auquel j’ai peu participé, puis j’ai travaillé sur des spots publicitaires, sur Les Pierrafeu 2 : Viva Rock Vegas, et sur Le pacte des loups, pour lequel nous avions animé le lion déguisé en monstre, qui était créé en 3D. Peu de temps après, j’ai été engagé par Double Negative, où je travaille depuis cette époque.

Gavin Graham : J’ai commencé à travailler au sein de DNeg en 2000, sur les effets de Stardust, Cloverfield, Cœur d’encre, Les chroniques de Riddick, Doom et sur beaucoup de films de la série Harry Potter !

Quelles sont les principales séquences de 2012 sur lesquelles vous avez travaillé ?

Gavin Graham : La destruction de la place Saint Pierre de Rome. Ce qui représente 18 plans en tout. On voit d’abord l’intérieur de la chapelle Sixtine se fendre et s’effondrer, puis à l’extérieur, la basilique qui s’incline et s’effondre, pendant qu’une large foule essaie d’éviter de se faire écraser par le dôme du bâtiment. Nous sommes intervenus aussi sur la séquence qui se déroule dans le parc naturel de Yellowstone. Sous le cratère de Yellowstone se trouve un supervolcan qui explose de manière spectaculaire. Le héros du film et sa famille doivent échapper à un gigantesque nuage de cendres en fonçant à bord d’un mobile home, tandis que le supervolcan projette des bombes de lave qui s’écrasent dans le paysage.

Compte tenu des progrès qui ont été réalisés en utilisant notamment le logiciel « Volume breaker » pour représenter en 3D les effets de destruction, considérez-vous que l’emploi de maquettes est une technique qui appartient désormais au passé ?

Alex Wuttke : Les deux approches, 3D et miniatures, possèdent leurs propres avantages. C’est au superviseur des effets visuels, avec l’accord du réalisateur, de décider quelle technique conviendra mieux pour créer tel plan ou telle séquence. La 3D vous donne la possibilité d’intervenir à tout moment sur la destruction, pour modifier la chronologie de son comportement, mais actuellement, il est encore très difficile d’atteindre le degré de réalisme souhaité. Les destructions de maquettes peuvent vous permettre d’obtenir plus de réalisme, mais vous vous trouvez à la merci du caractère aléatoire de leur comportement pendant une explosion ou en effondrement provoqué. De plus, vous pouvez dépenser beaucoup d’argent pour une scène que vous ne pourrez tourner qu’une seule fois, la maquette étant détruite une fois pour toutes, et qui ne correspondra pas forcément à 100% au plan souhaité. Il est quelquefois plus dur d’intégrer des images de miniatures dans des prises de vues réelles qui montrent d’autres événements qui se déroulent au même moment, car on a du mal à « synchroniser » les comportements de toutes ces destructions. La possibilité de pouvoir contrôler tous les éléments d’un plan est l’un des avantages les plus attirants de la solution 3D. Aujourd’hui, les systèmes d’intégration des différents éléments d’un plan et la capacité de calcul des ordinateurs font des progrès constants. Tout cela contribue à atteindre un plus grand réalisme avec la 3D, mais créer des scènes de destruction de très grande ampleur, comme celles de 2012, reste un défi très difficile à relever.

La simulation 3D de l’eau a été perfectionnée énormément ces dernières années. Pouvez-vous nous parler des progrès accomplis dans les simulations de destruction d’immeubles, et de véhicules ?

Gavin Graham : Toutes ces simulations ont évolué très lentement, au fur et à mesure que de nouveaux outils sont apparus. S’il est vrai que l’on sait représenter l’eau aujourd’hui, animer de grandes masses liquides reste un travail très ardu. Dans l’ensemble, tous les effets « dynamiques » de matière en mouvement sont complexes. Nous continuons à améliorer nos logiciels « maison » pour parvenir à générer ces effets rapidement, tout en obtenant le meilleur rendu possible. On peut se procurer des logiciels commerciaux pour créer certains de ces effets, mais tels quels, « sortis de la boîte ,  ils nous semblent toujours insuffisants. Il nous faut d’abord les modifier et les améliorer pour être en mesure de réaliser notre travail en obtenant le niveau de qualité souhaité.

Comment animez-vous une destruction en 3D ? Partez-vous des plus gros morceaux du bâtiment qui s’effondre pour régler ensuite la chute des petits débris ?

Gavin Graham : Oui. Pendant la phase dite de « Layout » où l’on planifie la position de tous les éléments animés dans l’image, nous commençons par animer les plus gros morceaux de manière provisoire. Une fois que le timing de la chute et l’échelle des morceaux sont déterminés, nous créons les morceaux 3D définitifs, nous mettons en place toutes les fissures dans la géométrie du bâtiment, et nous donnons le plan au département de simulation des éléments rigides, qui se base sur le layout pour animer la scène de l’écroulement. Puis le résultat est modifié en fonction des commentaires de nos clients. Il faut limiter le nombre d’éléments rigides à animer pour permettre à la simulation d’être calculée dans des délais raisonnables, et éviter que les ordinateurs ne se « plantent ». Une fois que l’on a obtenu une simulation d’animation d’éléments rigides qui convient, on peut la valider, puis la retravailler en ajoutant une seconde « couche » d’éléments 3D plus fins que l’on va animer, et ainsi de suite. Nous ajoutons aussi une couche d’effets afin de générer des particules, c’est à dire des tout petits débris et de la poussière, qui vont apparaître quand les plus gros morceaux entrent en collision les uns avec les autres et s’écrasent sur le sol.

Y a t’il des similitudes entre les logiciels de simulation d’eau et les logiciels de simulation de destruction de matières solides ?

Alex Wuttke : Notre logiciel maison, Squirt, est employé pour simuler tous les éléments  fluides comme l’eau, le feu, la poussière, etc. Les effets d’émissions et de collisions générés par le logiciel peuvent être activés par des surfaces dures ou par des niveaux ( des parties du volume 3D qui représentent des objets et des vitesse de déplacement) générés par des parties des corps rigides. Les effets d’eau fonctionnent de la même manière quand nous devons simuler le comportement des fluides autour des piliers d’un pont, ou sur les berges d’une rivière.  Il y a donc des points communs sur ces effets de collision entre les logiciels de gestion des fluides et les logiciels de gestion des solides.

Pouvez-vous expliquer en détail, étape par étape comment vous avez créé les différentes séquences dont Dneg s’est occupé ? Commençons par la scène de la place Saint Pierre de Rome…

Gavin Graham : Nous avons commencé par réaliser une modélisation très fidèle de la place Saint Pierre et de ses environs, notamment de la basilique et des colonnades qui entourent la place. Ce modèle 3D a été conçu pour s’adapter au fonctionnement de notre logiciel dynamique maison, qui s’appelle Dynamite, et gère le comportement de nombreux détails regroupés en différentes hiérarchies de structures architecturales. Les textures ont été obtenues à partir de séances de photos haute résolution  faites sur le vrai site, à Rome. Nous avons ensuite crée une première version du plan pour établir les phases principales de l’animation, afin que le timing et l’emplacement des chute de débris soit déterminé. Pendant cette étape, ce sont uniquement les formes basiques des architectures que nous avons animées en images-clé, pendant qu’elles se disloquent. Le département animation s’est ensuite chargé de gérer les différents niveaux de simulation adaptés chacun aux différentes hiérarchies des structures du modèle 3D. Par exemple, quand un grand mur se penche et s’affaisse, il s’écroule et se brise sur un autre niveau du modèle, et les débris qui sont projetés vont eux-mêmes créer d’autres dégâts avec leur propre dynamique. C’est en ordonnant les événements avec cette sorte de hiérarchie que nous parvenons à créer le plan en contrôlant toutes ses étapes. L’avantage de cette méthode, c’est que les images provisoires obtenues sont suffisamment « parlantes » pour que nos clients puissent valider cette étape. Nous sommes alors en mesure de travailler sur les détails plus fins sans perdre de temps.

Parlez-nous à présent de la séquence de Yellowstone…

Alex Wuttke : La séquence de Yellowstone est subdivisée en plusieurs types d’effets. Commençons par le nuage de cendres. Nous devions créer le nuage de cendres pyroclastiques (terme qui signifie « brisé par le feu », NDLR) qui s’étend et auquel John Cusack essaie d’échapper en conduisant un mobile home. Ce nuage est tellement grand qu’il remplit tout l’écran et devient l’arrière-plan de la plupart des images. De ce fait, le défi que nous devions relever était double : il fallait créer un effet assez détaillé pour qu’il puisse remplir tout l’écran, mais qu’il soit aussi suffisamment « léger » à calculer pour que nous soyons en mesure de l’utiliser dans un grand nombre de plans, pendant la production de cette scène. Nous ne pouvions pas nous contenter d’employer des effets 2D, compte tenu des mouvements de caméra des prises de vues réelles dans lesquelles nous devions ajouter le nuage de cendre. Une approche 3D s’imposait donc. La solution que nous avons trouvée a consisté à utiliser une « banque » d’éléments de nuage pyroclastique que nous pouvions assembler dans un plan donné, pour « sculpter » la forme globale du nuage. Ces différents éléments de simulation ont été générés par Jason Harris, notre expert en dynamique des fluides. Il a employé notre logiciel Squirt. Après avoir procédé à de nombreux tests, il a déterminé les conditions idéales pour nous permettre de produire une grande variété de flux pyroclastiques de tailles et de formes différentes. Nos artistes ont « habillés » ces nuages basiques de haut murs de cendres qui contenaient des centaines de ces simulations très détaillées. Ils ont ensuite lancé des simulations en basse résolution à l’intérieur de leurs assemblages 3D, et s’en sont servis pour simuler les effets de lueurs incandescentes à l’intérieur des nuages. Le rendering de ces plans a été réalisé grâce à DNB, notre logiciel de rendu de volume maison.

Comment avez-vous réalisé les effets des bombes de lave ?

Gavin Graham : Pendant la préparation de notre travail sur 2012, nous nous sommes rapidement rendu compte que nous allions devoir construire un réseau d’effets (Une « pipeline » dans le jargon des effets visuels, NDLR) très robuste pour créer les effets de bombes de lave requis. Notre mission consistait à créer de nombreuses bombes de différentes tailles dans chaque plan, et que chacune soit suivie par une traînée de fumée incandescente. Certaines bombes de lave étaient aussi grandes que des terrains de football, et d’autres de la taille de maisons. Nous avons d’abord créé la partie avant des bombes avec un système d’animation géré au sein du logiciel Maya. Cela nous a permis de déterminer le point de chute de chaque bombe et le timing des impacts. Cette séquence de pré-visualisation a été approuvée rapidement. Les données de ces animations provisoires ont été ensuite transposées sur Houdini, logiciel avec lequel les effets d’impacts ont été calculés. Nous avons déterminé ainsi la manière dont la surface du sol allait se déformer et se recroqueviller en fonction de la direction de chaque bombe, ainsi que la quantité de débris qui allaient être projetés, et le volume de fumée qui se dégagerait. Une fois que tous ces éléments ont été produits, ils ont été regroupés sur une base XML et réintégrés dans Maya pour obtenir leur rendering. Les traînées de fumée que les bombes diffusent en volant ont été créées en assemblant plusieurs éléments de trajectoire pré-simulés.

Comment avez-vous montré l’évolution des plans à Roland Emmerich pour obtenir son approbation ? Comment vous a-t’il communiqué ses indications ?

Alex Wuttke : Toutes nos séquences ont été pré-visualisées longtemps à l’avance. Ensuite, une fois les éléments en prises de vues réelles tournés,  nous sommes entrés dans une phase de post-visualisation, pendant laquelle nous avons réalisé le layout des plans à la bonne échelle, en employant des systèmes d’animation que nous pouvions reporter sur les plans réels. Pour prendre l’exemple des bombes de lave, nous utilisions des simulations de bombes éclairées platement, avec des traînées de fumée grises, pendant que nous étions en train de régler tous les composants du plan définitif. Les plans qui étaient réalisés principalement en 3D, et qui devaient évoluer pendant le montage du film étaient modifiés en passant par un processus de prévisualisation, mais au fur et à mesure que nous progressions, ces éléments étaient représentés de manière plus réaliste, afin que nous puissions donner aux événements leur forme pratiquement définitive, finalisée au montage.

Quels sont les goûts spécifiques de Roland Emmerich en matière d’effets visuels ?

Gavin Graham : Bien que Roland Emmerich soit connu pour réaliser des projets qui reposent sur des effets visuels très spectaculaires, il est principalement un conteur, mais un conteur qui narre des histoires d’une ampleur épique. Ce qui était primordial pour nous, c’était que chaque plan que nous allions lui montrer lui semble crédible, et qu’il lui permette de raconter son histoire de manière claire et efficace. Il ne s’est pas impliqué dans les réglages des détails mineurs, mais il a toujours souhaité que nous poussions les choses à fond pour stupéfier les spectateurs.

De tous les plans que vous avez réalisés pour 2012, quel a été le plus compliqué ?

Alex Wuttke : Sans aucun doute le premier plan où l’on voit le mobile home conduit par John Cusack foncer dans le paysage de Yellowstone alors que des centaines de bombes de lave sont projetées partout et créent des impacts sur le sol. C’était un défi technique et artistique très dur à relever. Heureusement pour nous, il avait été prévu que  la seconde partie du plan soit intégrée à la bande-annonce, ce qui nous a contraints à travailler dessus longtemps à l’avance. Ce plan est également l’un des plus longs que nous avons fait : il dure 14 secondes,  et il est rempli d’événements complexes. Le nuage de cendres est visible tout au long du plan. Chaque simulation du nuage était tellement poussée qu’il nous a fallu plus d’une journée pour calculer son animation pendant les six secondes de la partie du plan intégrée à la bande-annonce !

Quel est l’élément clé qui permet donner tout le réalisme voulu à une scène de destruction ? La composition du plan, l’éclairage des décors virtuels, ou les tout petits détails ?

Alex Wuttke : Il est toujours souhaitable de baser la majeure partie du plan sur des éléments issus des prises de vues réelles. Cela nous permet d’utiliser des sections entières de ces plans, de reproduire les conditions d’exposition des prises de vues, les reflets dans l’objectif, la diffusion atmosphérique, etc. Les plans de destruction que nous devions réaliser étaient sensés se dérouler dans des paysages tellement vastes que nous avons dû faire des compromis sur les effets de diffusion atmosphérique. Si nous avions reproduit la stricte réalité, on n’aurait pas pu voir toutes les conséquences de l’explosion du supervolcan, par exemple. Avoir créé un réseau de rendering qui produit des résultats réalistes « automatiquement » facilite certes notre travail, mais il faut ensuite ajouter autant de petits détails que nous le pouvons. Il est toujours bon d’établir rapidement le déroulement des éléments et de réaliser une prévisualisation qui sera rapidement approuvée par nos clients, car cela nous permet de construire tout le reste sur une base solide, étape par étape. Je dirais donc que l’on obtient le meilleur résultat ainsi, à partie d’une bonne « pipeline », d’une prévisualisation fidèle au souhait du client, et de l’ajout de détails qui permettent d’obtenir des rendus de destruction épiques, que l’on peut modifier et améliorer jusqu’au dernier moment.

[En discuter sur le forum]
Bookmark and Share


.