Accueil Facktualité Champs lumineux: l’ingrédient manquant pour la vidéo 3D immersive s’améliore

Champs lumineux: l’ingrédient manquant pour la vidéo 3D immersive s’améliore

46 caméras d’action synchronisées dans le temps composent les tripes de l’appareil de capture.

Le contenu vidéo 3D a une limitation importante, qui n’est pas anodine à résoudre. La vidéo capturée par une caméra – même avec une résolution élevée et un champ de vision très large – enregistre toujours une scène sous la forme d’un plan plat, d’un point de vue fixe. La limitation que cela apporte sera familière à quiconque a regardé une vidéo 3D (ou «vidéo 360») en VR et bougé la tête dans le mauvais sens. Dans ces vidéos, on est libre de regarder autour de soi, mais ne peut pas changer la position de sa tête dans le processus. En d’autres termes, faire pivoter la tête pour regarder vers le haut, le bas, la gauche ou la droite est bien. Bouger la tête plus haut, plus bas, plus près, plus loin ou sur le côté? Rien de tout cela ne fonctionne. Les mouvements naturels comme essayer de regarder par-dessus un objet ou se déplacer légèrement sur le côté pour une meilleure vue ne fonctionnent tout simplement pas.

La vidéo sur champ lumineux change cela. Il est capturé à l’aide d’un appareil comme celui de l’image ci-dessus, et Google a une page de ressources donnant un excellent aperçu de ce qu’est la vidéo sur champ lumineux, à quoi elle peut ressembler et comment elle le fait. Ce lien couvre les améliorations récentes apportées à leur appareil photo ainsi qu’au codage et au rendu vidéo, mais sert de grand spectacle sur ce que sont les champs lumineux et ce qu’ils peuvent faire.

Image de champ lumineux, avec le point de vue du spectateur se déplaçant selon un motif en huit Les couleurs montrent les couches de profondeur interpolées par le logiciel.

La méta-caméra est un hémisphère d’un peu moins d’un mètre de diamètre qui contient un ensemble de 46 caméras d’action synchronisées dans le temps pointées vers l’extérieur. Du côté logiciel, l’entrée caméra est utilisée pour reconstruire la scène et créer une vidéo volumétrique à 6 DoF. En d’autres termes, la perspective de la vidéo change correctement en fonction d’un utilisateur déplaçant son point de vue (dans une zone correspondant très approximativement à la taille de l’appareil photo, de toute façon.)

L’autre amélioration significative concerne la compression et le rendu de la vidéo résultante. En réduisant la vidéo à un petit nombre fixe de couches de profondeur pour représenter le contenu du champ lumineux, le codage et la compression vidéo conventionnels peuvent être exploités pour fournir des représentations légères qui peuvent être rendues facilement sur à peu près n’importe quelle plate-forme. Une image vaut mille mots, voici donc une courte animation montrant une image de champ lumineux. Le point de vue se déplace dans un chiffre huit, et les perspectives et les lignes de visée changent toutes exactement comme on s’y attendrait. L’animation apparaît également brièvement derrière le rideau, montrant les couches de profondeur codées par couleur que le logiciel utilise pour décider de ce qui appartient à où.

Vous pouvez télécharger le PDF du document technique SIGGRAPH 2020 ou parcourir la page de ressources DeepView hébergée sur GitHub pour de nombreuses démos dans le navigateur et une démo de casque VR téléchargeable. La présentation vidéo de l’équipe est également intégrée ci-dessous et donne un excellent aperçu.

Les champs de lumière n’ont pas à être des affaires complexes, et il y a beaucoup de place pour les pirates curieux à explorer. Intéressé? [Alex Hornstein] a partagé une présentation fascinante sur le travail avec les champs lumineux dans sa conférence Hackaday Superconference 2018, alors jetez-y un œil.

AUCUN COMMENTAIRE

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici