Le métaverse a été fortement médiatisé, mais il pourrait permettre de nouvelles façons de produire des écrans

Le métaverse a été fortement médiatisé – mais il pourrait permettre de nouvelles façons de produire des écrans

Crédit : Disney

La production cinématographique a été durement touchée par la pandémie, avec des sorties retardées et des productions interrompues ou annulées. Un jour, nous pourrions même voir Mission Impossible 7.

Mais, comme votre héros d’écran typique, ce pourrait bien être le métaverse à la rescousse. Expliquons-nous.

Qu’est-ce que le métaverse, pourquoi est-il important ?

Mark Zuckerberg, PDG de Meta (anciennement Facebook) présente le métaverse comme le futur de l’interaction humaine où l’alignement des réalités virtuelles et augmentées (VR et AR) nous permet de travailler, de nous reposer et de jouer via une seconde vie virtuelle accessible par un écran ou superposé (via des lunettes spéciales) sur le monde réel.

Mais comment cela nous aide-t-il à créer notre contenu d’écran préféré pendant une pandémie ? Ou la prochaine urgence mondiale ?

Ce que nous pouvons faire maintenant

La production traditionnelle repose sur le fait que les acteurs et l’équipe se trouvent au même endroit au même moment. Les deux dernières années ont montré qu’il existe un fort besoin de pouvoir soit tourner des films où les acteurs / l’équipe se trouvent dans des endroits séparés, soit où l’espace de production est partiellement ou entièrement dans un espace virtuel (comme le remake du Roi Lion).

Ce que nous pouvons faire maintenant, même avec un métaverse naissant, est significatif. Les outils actuels du métier incluent des technologies telles que les deepfakes qui utilisent des techniques d’apprentissage automatique pour assembler de manière transparente n’importe qui dans le monde dans une vidéo ou une photo et des programmes informatiques de production (tels que Unreal Engine) qui créent des lieux et des avatars.

Le studio Disney The Volume, qui abrite The Mandalorian, utilise cette dernière technologie avec un effet brillant. Dans The Mandalorian, des écrans numériques haute définition sont fixés aux murs et au toit, offrant un arrière-plan, une perspective et une lumière parfaites, en utilisant un mélange d’images réelles et entièrement générées par ordinateur.

En travaillant avec la mise en garde que l’argent n’est pas un objet, voici comment ces technologies peuvent actuellement être déployées pour s’attaquer aux deux problèmes de production les plus urgents dans un monde post-COVID.

Le métaverse a été fortement médiatisé – mais il pourrait permettre de nouvelles façons de produire des écrans

The Mandalorian (Pedro Pascal) et The Child dans la saison 2 de The Mandalorian sur Disney+. Crédit : Disney+

Problème 1 : Le réalisateur à un endroit, les acteurs et l’équipe à un autre

S’il s’agissait du remake du Roi Lion, le réalisateur John Favreau pourrait simplement accéder à l’environnement virtuel à distance à l’aide de son appareil VR depuis sa salle multimédia à domicile. Pour d’autres productions, le réalisateur peut interagir avec l’acteur via des lunettes AR que l’acteur met entre les prises pour faire apparaître de manière transparente que le réalisateur est dans la pièce.

De cette façon, la fonction de la salle multimédia évolue, devenant un centre de communication domestique avec une gamme de caméras et d’écrans. Cela se produit déjà et c’est quelque chose que la grande technologie cherche à accélérer. Des produits tels que Microsoft Mesh for Teams sont rapidement déployés, où la réalité mixte permet une interaction holographique tridimensionnelle pour les réunions et la collaboration.

Problème 2 : Le réalisateur, la star et la co-star se trouvent tous dans des endroits différents

A partir d’aujourd’hui, nous pouvons :

(a) filmer chaque acteur séparément avec différentes équipes devant un écran vert, puis faire correspondre les arrière-plans (mais les acteurs n’auront aucune interaction).

(b) utiliser des lunettes AR pour que les acteurs se voient, puis les retirer numériquement comme Justice League l’a fait avec la moustache d’Henry Cavill.

(c) utiliser deux remplaçants humains et utiliser la technologie deepfake pour modifier leurs visages. C’est utile si les acteurs ont besoin de se toucher.

Cependant, tous ont des inconvénients ou, en fait, le même inconvénient. L’acteur.

Jusqu’à ce que nous puissions perfectionner à la fois le réalisme de la personne et la performance (il suffit de regarder le brillant mais pas assez bon Luke Skywalker sans Mark-Hamill dans Le Livre de Boba Fett), le métaverse ne réalisera jamais tout à fait son potentiel comme un véritable environnement alternatif pour la production d’écrans.

La dernière itération du jeune Luke Skywalker a été générée à partir d’une combinaison d’acteur physique (pas Mark Hamill) et de technologie deepfake. Il avait l’air physiquement parfait, mais pas quand “Luke” a commencé à parler. Cela a nécessité que la majeure partie du dialogue soit prononcée hors caméra. Il y avait aussi un fort sentiment de vallée étrange à propos de la performance, nommée à l’origine pour la réponse émotionnelle négative envers les robots qui semblent “presque” humains.






En avant vers le futur

Le jour des avatars humains parfaits pourrait arriver très bientôt. C’était prévu par le romancier/futuriste Michael Crichton, pas dans Westworld ou Jurassic Park, mais dans son obscur film de 1981 Looker. L’histoire concerne la technologie qui scanne et anime les acteurs, leur permettant de prendre leur retraite et de gérer simplement leurs droits à l’image.

Dans ce futur proche proposé, le COVID n’est pas un souci, ni la mort d’un acteur pendant la production. Tous les films peuvent être réalisés comme Le Roi Lion, dans un environnement virtuel.

Les acteurs se déplaceront à distance depuis leurs salles multimédias pour contrôler leurs avatars, ou peut-être pas. À l’avenir, Mark Hamill peut avoir deux prix : un où il se présente, un autre où seul son jumeau numérique est utilisé, un qui peut générer de manière procédurale sa performance en regardant tous ses films pour déterminer les choix d’acteur à imiter.

Juste parce que nous le pouvons, devrions-nous ?

L’histoire nous montre que les nouvelles technologies ne sont généralement pas utilisées en gros et que les anciennes technologies ne meurent jamais complètement. Pensez vinyle. Ce qui est plus probable, c’est un certain snobisme à rebours. De nombreuses émissions utiliseront pleinement le métaverse, leur permettant de continuer à tourner malgré les calamités du monde réel.

Peut-être qu’un tout nouveau genre hybride sera formé. Les films qui auraient pu être une fois de l’animation peuvent désormais être photoréalistes – appelez-les “animations en direct”.

Mais dans un avenir où la plupart d’entre nous mangeront de la viande cultivée en laboratoire, seuls les meilleurs restaurants utiliseront encore des animaux vivants. Il en va probablement de même pour la production d’écrans : l’image de prestige ultime sera réalisée à l’ancienne, de vrais acteurs agissant vraiment les uns contre les autres dans des environnements réels, les pandémies et le métaverse seront maudits.


Qualcomm parie sur le métaverse avec un nouveau fonds d’investissement de 100 millions de dollars


Fourni par La Conversation

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.La conversation

Citation: Le métaverse a été fortement médiatisé, mais il pourrait permettre de nouvelles façons de produire des écrans (2022, 4 avril) récupéré le 4 avril 2022 sur https://techxplore.com/news/2022-04-metaverse-heavily-hyped-enable -ways.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.