Publicité
15-11-2018

Au cinéma, les effets spéciaux sont omniprésents, parfois spectaculaires, souvent imperceptibles. L’imagerie de synthèse s’attaque au dernier élément qui lui échappait : les acteurs.

Avec ses décors peints, sa fausse jungle de studio et son python en caoutchouc, le film a un côté kitch qui trahit son âge. Il n’empêche, la première adaptation cinématographique du Livre de la jungle, réalisée en 1942 par les frères Korda, est impressionnante : des dizaines d’animaux en chair et en os, dont un tigre, une panthère noire, des loups et des éléphants, partagent l’écran avec les acteurs.

Trois quarts de siècle plus tard, le réalisateur américain Jon Favreau a troqué la ménagerie contre les images de synthèse. Son adaptation du roman de Rudyard Kipling, sortie en 2016, est une remarquable prouesse technique. Seuls quelques accessoires et le jeune acteur Neel Sethi, qui campe Mowgli, sont réels. Tout le reste − animaux, paysages, brume, végétation − a été créé numériquement par une armée d’artistes d’effets spéciaux.

Filmé devant des écrans bleus, le comédien n’a rien vu de la jungle luxuriante, ajoutée en postproduction. Le résultat est époustouflant : des feuilles d’arbres aux brins d’herbe en passant par le pelage de Shere Khan, tout est parfaitement crédible. Si ce n’est, bien sûr, des animaux doués de langage !

Dans ce royaume numérique, la question s’impose : le prochain Mowgli sera-t-il virtuel ? « C’est le rêve des studios de cinéma d’avoir des “acteurs” qui feront tout ce qu’on leur demande ! » s’exclame Robin Tremblay, qui a travaillé comme animateur 3D sur de nombreux films et enseigne depuis 25 ans à l’École des arts numériques, de l’animation et du design à Montréal. « Sur une image statique, on est déjà capable de reproduire un humain parfaitement. C’est plus difficile de le faire bouger, mais c’est juste une question de temps avant qu’on y arrive », avance-t-il.

C’est aussi l’avis de Pierre Raymond, autre vétéran du domaine. « Je suis persuadé que, d’ici 5 à 10 ans, on aura des acteurs numériques, et les gens ne pourront pas faire la différence avec les vrais. Le star system hollywoodien volera en éclats ! On va manifestement vers ça, même s’il reste un mur éthique et technique à franchir », souligne celui qui a cofondé les studios Hybride en 1991.

LISEZ LA SUITE DE CE REPORTAGE DANS LE NUMÉRO DE DÉCEMBRE 2018

Pour accéder à l’article complet, consultez notre numéro de décembre 2018. Achetez-le dès maintenant.

Pour Le livre de la jungle, de Jon Favreau, tous les décors et les animaux, partenaires de jeu de l’acteur Neel Sethi, ont été créés numériquement par les studios MPC et Weta Digital. Photo: MPC/Weta Digital

Sous ses airs de chalet familial niché entre les sapins, la bâtisse où il nous reçoit, située à Piedmont, dans les Laurentides, abrite une centaine de spécialistes des effets spéciaux numériques ou VFX (pour visual effects). Elle a d’ailleurs dû être agrandie deux fois pour loger tout ce beau monde, alors que l’entreprise faisait sa place parmi les joueurs mondiaux. Tels des trophées de chasse tapissant les couloirs de ce shack de luxe, les affiches de films donnent une idée de la renommée d’Hybride : Sin City, 300, Monde jurassique, Avatar et Hunger Games, pour ne nommer que ceux-là. L’équipe n’a pas travaillé sur Le livre de la jungle, mais nul doute qu’elle aurait eu les compétences pour le faire.

Les yeux de Pierre Raymond pétillent lorsqu’il décrit l’évolution fulgurante des technologies au cours des 25 dernières années, des premiers dinosaures 3D du Parc jurassique aux superhéros et autres créatures fantastiques ultraréalistes qui peuplent nos écrans aujourd’hui.

À l’instar des animaux du Livre de la jungle, cette intégration désormais parfaite du virtuel dans les images réelles ouvre la voie aux acteurs cent pour cent numériques, élargissant la palette des « partenaires de jeu » possibles. Les artistes d’Hybride ont ainsi travaillé sur L3-37, véritable fusion robot-humain, dans Solo: une histoire de Star Wars, sorti en 2018. Ils ont effacé plan par plan l’actrice qui a tourné les scènes pour la remplacer par un droïde plus vrai que nature, bougeant, respirant et marchant comme la jeune femme.

« Ce qui a permis d’atteindre un tel réalisme, c’est bien sûr l’augmentation de la puissance de calcul et de stockage informatiques, et le raffinement des logiciels, capables notamment de recréer des atmosphères, des paysages, des animaux », détaille Pierre Raymond.

Capter les émotions humaines

Mais il y a un monde entre recréer une jungle ou un robot et animer le visage d’un acteur. « Il y a tellement d’émotions qui passent dans un regard. Et c’est très difficile de capter tous les détails du visage », observe-t-il. Pas facile, par exemple, de reproduire le mouvement des 43 muscles faciaux, la texture de la peau ou la façon dont elle réfléchit la lumière, en tenant compte de la présence des petits vaisseaux sanguins sous l’épiderme.

Le défi est tel que peu de réalisateurs se sont risqués à diriger des humains virtuels. Certes, il y a eu quelques exemples convaincants, le premier à faire mouche étant le vieillard qui rajeunit au fil du temps dans L’étrange histoire de Benjamin Button (2008). Pendant la première heure du film, le visage de Benjamin Button est entièrement numérique.

Ce qui lui donne son air humain, ce sont ses expressions, empruntées à Brad Pitt grâce à la technique de captation de performance, qui permet à des comédiens de prêter leur talent à des personnages virtuels. « Les émotions et le jeu peuvent être reproduits, mais on ne peut pas encore s’affranchir de la performance initiale d’un vrai acteur », commente Pierre Raymond.

À l’aide de marqueurs placés sur le visage d’un comédien, des caméras (souvent fixées sur un casque) enregistrent les expressions faciales au plus près, qui sont reportées ensuite sur un personnage animé. Dans le cas de Benjamin Button, l’équipe a fait appel aux chercheurs de l’Institute for Creative Technologies, de l’Université de Californie du Sud, qui ont mis au point des systèmes filmant un visage avec une résolution de quelques microns sous la lumière diffusée par des milliers de diodes. Aussi utilisés pour Avatar, ces dispositifs de recherche servent régulièrement à produire des doublures numériques pour les films hollywoodiens.

Si certains yeux experts ont décelé des failles sur le visage de Benjamin Button, le monde du cinéma a salué l’exploit, soulignant tout de même que la supercherie passe mieux sur un vieillard, dont les traits sont moins fins…

Les studios Hybride

«Quand les effets visuels numériques sont apparus, dans les années 1990, on intégrait quelques éléments 3D dans des environnements tournés en prise de vue réelle. Aujourd’hui, c’est l’inverse: l’environnement est en images de synthèse et l’on intègre quelques rares éléments réels, parfois juste l’acteur».

Pierre Raymond, cofondateur des studios Hybride

Vallée de l’étrange

Il faut dire que, face à un humain numérique, notre tolérance à l’erreur est quasi nulle. C’est pour cette raison que Jon Favreau a tenu à avoir un vrai acteur dans son Livre de la jungle : l’environnement artificiel serait moins bien passé si Mowgli avait eu des airs de robot mal dégrossi.

De fait, plus les pseudohumains paraissent humains, plus notre sentiment de familiarité envers eux augmente, jusqu’à un certain point où tout bascule. La familiarité laisse alors place à une crainte ou un dégoût difficilement explicable. C’est ce qu’on appelle la « vallée dérangeante » ou uncanny valley en anglais.

Dans Rogue One: Une histoire de Star Wars, sorti en 2016, le personnage de Grand Moff Tarkin semble joué par Peter Cushing, acteur britannique pourtant mort en…1994! Il incarnait le même personnage dans l’opus de 1977 réalisé par George Lucas. Pour le faire revivre, l’équipe du studio Industrial Light & Magic, filiale de Lucasfilm, est partie de la performance de Guy Henry, dont la stature et le faciès étaient vaguement similaires. Son visage a ensuite été remplacé par le visage numérique de Cushing, qui a pu être reconstitué avec précision grâce notamment à un moule du visage de l’acteur découvert dans les archives de Lucasfilm. Le résultat est convaincant, mais l’opération a été vivement critiquée sur le plan éthique.

Ceux qui ont vu le film Blade Runner 2049, de Denis Villeneuve, ont peut-être ressenti cette gêne en voyant le personnage de Rachel, initialement joué par Sean Young il y a 30 ans. Entièrement recréée par ordinateur, cette Rachel qui réapparaît inchangée à l’écran pendant deux minutes a demandé un an de travail. « Et ça ne marche pas si bien, ses yeux ne sont pas très réussis », commente Christopher Nichols, superviseur d’effets spéciaux, qui s’est lui-même arraché les cheveux en tentant de créer des acteurs virtuels pour plusieurs grosses productions d’Hollywood. Il est aujourd’hui directeur du laboratoire du Chaos Group, une entreprise internationale qui met au point des solutions innovantes pour les artistes visuels. Son objectif : faire de la recherche pour franchir cette fameuse vallée.

C’est pour cela qu’il a fondé en 2014 la Digital Human League avec une dizaine d’autres maîtres des VFX. « Chaque fois qu’une équipe concevait un humain virtuel pour un film, elle repartait de zéro. On s’est dit qu’il valait mieux mettre nos connaissances en commun plutôt que de réinventer constamment la roue », explique-t-il de son bureau de Los Angeles, rappelant que copier l’humain était déjà l’une des ambitions des peintres hollandais à la Renaissance.

« Dès notre naissance, on fixe les visages. C’est une question de survie : si un bébé trouve qu’un visage est menaçant ou bizarre, il hurle », indique-t-il. L’équipe de DreamWorks l’a appris à ses dépens en 2000, lorsqu’elle a présenté sa première version du dessin animé Shrek à un jeune public. La princesse Fiona, trop réaliste, a fait fondre en larmes l’auditoire ! Les animateurs ont donc corrigé le tir en redessinant l’héroïne de façon moins humaine…

À l’Institute for Creative Technology, de l’Université de Californie du Sud, l’actrice Emily O’Brien a fait numériser son visage en très haute résolution dans un dispositif appelé LightStage. Ses expressions faciales, les changements de direction de son regard, les mouvements de ses lèvres ont été photographiés puis utilisés pour créer un double numérique de la jeune femme. Sorti en 2010, le projet Digital Emily, où on voit la «fausse» actrice s’exprimer dans une vidéo, est l’un des premiers projets à avoir franchi la «vallée de l’étrange», en montrant un humain numérique très crédible.
Photo: Oleg Alexander/Mike Rogers/William Lambeth/Jen-Yuan Chiang/Wan-Chun Ma/Chuan-Chang Wang/Paul Debevec

« Le problème avec la vallée dérangeante, c’est que tout le monde est gêné, mais personne n’est capable de dire précisément ce qui cloche. Si vous présentez un personnage virtuel à des dizaines de personnes, toutes vous donneront des raisons différentes pour expliquer le malaise qu’elles ressentent ! fait observer Christopher Nichols, qui parle d’expérience. Si l’on pouvait déterminer scientifiquement quelles sont les parties de l’équation qui fonctionnent, on gagnerait du temps.

Avec l’aide de l’Institute for Creative Technologies, l’équipe de la Digital Human League a numérisé en haute résolution le visage de deux humains, dont l’actrice Emily O’Brien, et mis les données en accès libre en 2015. « Grâce à ces données scientifiques incroyables, on sait quelle texture de peau est réelle par exemple. On peut partir de ces variables et les modifier pour voir l’effet sur notre perception », s’enthousiasme Christopher Nichols, fasciné par notre intolérance au moindre défaut. Cette compréhension est essentielle, croit-il. Car tôt ou tard, nous interagirons avec des humains numériques. « Autant les faire bien ! »

C’est aussi l’avis de son collègue Hao Li, chercheur à l’Université de Californie du Sud et fondateur de Pinscreen, une entreprise qui crée des avatars 3D réalistes à partir de la simple photographie d’une personne. Ses travaux avant-gardistes, qu’il a présentés avec son équipe en juin 2018 à Vancouver, au congrès annuel de graphisme numérique SIGGRAPH, sont renversants. Assis devant une webcam, un chercheur fait toutes sortes de mimiques qui sont reportées sur l’avatar d’un réalisme saisissant de Kim Jong-un ou de Donald Trump. En temps réel !

« Avec de l’argent et du temps, on peut créer des acteurs virtuels assez convaincants. Mais la révolution, c’est que n’importe qui pourra bientôt le faire grâce à des algorithmes utilisant de vraies données. Au lieu de simuler et de passer à côté de certains détails, on part de quelque chose d’existant », se réjouit Hao Li, interviewé par Skype.

Il est persuadé que, à l’aide de bases de données de visages, d’expressions faciales, d’émotions et avec un coup de pouce de l’intelligence artificielle, l’internaute moyen pourra bientôt agir sur des doubles numériques impossibles à démasquer. Peut-être pas avec une qualité suffisante pour le cinéma, mais largement satisfaisante pour les jeux vidéos ou les appels sur Skype… « Ce n’est pas impossible que, d’ici un an, vous ayez sur Skype la même conversation qu’en ce moment même, mais que ce ne soit pas moi qui parle », me lance-t-il en riant. La multiplication sur Internet des deepfakes, ces vidéos truquées qui superposent l’image d’une personne sur quelqu’un d’autre, semble déjà lui donner raison.

Que ce soit sur petit ou sur grand écran, la frontière entre l’imaginaire et la réalité n’a jamais été aussi ténue.

Le Québec, plaque tournante des effets spéciaux

Une vingtaine de studios internationaux installés à Montréal

Croissance du secteur de 27 % par an entre 2009 et 2016

55 productions locales et 102 étrangères en 2017

Volume de contrats de 262 M$ en 2017

Publicité

À lire aussi

Technologie

Cinéma: la modélisation de foules devient enfin réaliste

Filmer les foules a longtemps représenté un défi logistique majeur en cinéma. Des logiciels permettent désormais de modéliser des milliers de personnes en quelques clics.
Marine Corniou 17-11-2018
Technologie

Court-circuiter les acouphènes

Un traitement expérimental soulage des personnes atteintes d’acouphènes grâce à l’administration de faibles chocs électriques.
Alexis Riopel 09-01-2018
Technologie

Brite4: des cocktails en libre-service

Quinze secondes. C’est le temps qui s’écoule entre la commande d’un cocktail sur un écran tactile et sa sortie d’une machine distributrice imaginée par Brite4.