Publicité
Technologie

Effets spéciaux: Quand la techno allège la tâche des artistes

18-11-2018

Pour Le livre de la jungle, de Jon Favreau, tous les décors et les animaux, partenaires de jeu de l’acteur Neel Sethi, ont été créés numériquement par les studios MPC et Weta Digital. Photo: MPC/Weta Digital

C’est en exploitant au mieux les avancées informatiques que les spécialistes des effets spéciaux gagneront en liberté et en créativité.

Pour être crédibles, voire imperceptibles, les effets spéciaux demandent une somme de travail informatique et manuel inimaginable pour le spectateur lambda.

D’abord, un énorme travail de documentation est effectué en amont de chaque simulation. Pour Le livre de la jungle, les artistes des studios MPC ont travaillé à partir de 400 000 photographies de paysages prises en Inde. Chacune des 50 espèces animales a été étudiée et modélisée du squelette à la fourrure, en prenant le temps de reproduire la façon dont la peau bouge sur les muscles. Au total, 800 artistes ont été mobilisés pendant un an.

Le travail est si fastidieux que, pour les grosses productions, plusieurs compagnies mettent la main à la pâte. Pour Avatar par exemple, les studios laurentiens Hybride se sont chargés de l’extension de décor dans la pièce circulaire qui sert de « salle de contrôle ». Ils ont été appelés à la rescousse par le géant néo-zélandais Weta Digital, qui croulait sous la tâche (quatre ans de travail auront été nécessaires pour le film). Pour Star Wars: les derniers Jedi (sorti en 2017), 13 entreprises (dont Hybride et Rodeo FX) ont été sollicitées ! Pour Iron Man 3 (2013), ils étaient 17 studios et près de 2 000 personnes.

Le partage des tâches se décline à toutes les échelles tant les expertises sont pointues. Les artistes, ultraspécialisés, procèdent par étapes successives suivant un montage linéaire, le fameux « pipeline ». « On travaille par couches : les modeleurs commencent par créer un personnage en 3D, puis d’autres artistes intègrent la réaction du matériau à la lumière, ajoutent la texture, l’animation, l’éclairage, et finalement on greffe les parties 3D aux images filmées lors du compositing », énumère en simplifiant Guillaume Laforge, responsable de la recherche et du développement chez Rodeo FX.

Si la force de travail requise est considérable, la puissance des machines l’est tout autant. « Nos fichiers font parfois un téraoctet pour un personnage animé [NDLR : l’équivalent du poids de 50 films haute définition] ! Rien que pour les ouvrir dans le logiciel, ça prend 10 minutes », précise l’architecte de formation.

Les objets en 3D sont décrits par un ensemble de points et de segments appelés « polygones ». Plus ce maillage est serré, plus la résolution est fine. Ainsi, un seul arbre du décor d’Avatar pouvait être constitué de 1,2 million de polygones. Dans Blade Runner 2049, jusqu’à 6 milliards de polygones composent certains plans. Multipliez ce chiffre par 30 pour avoir une seconde de film et par le nombre de secondes que dure la scène… « On va de plus en plus loin dans la résolution, jusqu’à décrire les cheveux un par un. En ce moment, on tente vraiment d’optimiser la mémoire des ordinateurs, de simplifier le pipeline, notamment en utilisant les mêmes formats de fichiers pour toutes les étapes », explique Guillaume Laforge.

Autre piste d’amélioration : le « moteur de rendu », c’est-à-dire le logiciel qui combine tous les éléments d’une image numérisée et les restitue en image finale. L’avènement de technologies empruntées aux jeux vidéos, qui permettent de calculer les images en temps réel, avec une qualité de plus en plus proche de celle requise par le cinéma, pourrait changer la donne. Depuis peu, on utilise ainsi la puissance de la carte graphique plutôt que l’unité centrale de l’ordinateur pour obtenir le rendu définitif. « Cela permet de gagner du temps, comme si nos machines devenaient subitement trois ou quatre fois plus rapides », indique Robin Tremblay, professeur à l’École des arts numériques, de l’animation et du design.

Enfin, le raz-de-marée de l’intelligence artificielle n’épargne pas le domaine. Rien de mieux que de confier le boulot fastidieux à une machine autonome… Parmi les tâches sur lesquelles planchent les chercheurs, celle de détourer les acteurs qui n’ont pas pu être filmés sur fond bleu par exemple. Ce travail minutieux est souvent délocalisé en Inde pour y être effectué plan par plan, mais pourrait bientôt être géré par des machines.

Autre exemple ? Début 2018, un internaute s’est amusé à effacer la moustache de l’acteur Henry Cavill, qui campait Superman dans le film de 2017 La ligue des justiciers, en « entraînant » son ordinateur avec des centaines de photos de l’acteur, rasé ou non. Il a fait l’exercice sur quelques vidéos glanées sur le Web pour un coût d’environ 300 $ et un résultat très acceptable. Ce qui est assez fou quand on sait que l’équipe du film a dépensé des millions de dollars pour effacer ladite moustache sur certains plans au moment de la postproduction. Il s’agissait de scènes tournées tardivement, alors que l’acteur embauché pour Mission: Impossible-Répercussions n’avait pas le droit de la raser…

Ce texte fait partie du dossier: Cinéma: les acteurs virtuels arrivent

 

Publicité

À lire aussi

Technologie

Ce virus qui prend le contrôle de votre routeur

Linux/Moose utilise vos objets intelligents pour mousser la popularité d'individus sur les réseaux sociaux.
Technologie

Un nouveau drone aérien et…sous-marin

Développé à l'université Rutgers, au New Jersey, le "Naviator" est un drone capable de plonger et de nager, puis de ressortir voler dans les airs. Seul hic, le drone reste relié à l'opérateur...
Québec Science 28-01-2016
Technologie

Désengorger les routes

D’ici 2016, 10,2 millions de déplacements quotidiens auront lieu dans l’agglomération de Montréal. Une augmentation de 25% par rapport à aujourd’hui.
Québec Science 26-10-2012