Le Meta Quest 3 et le Meta Quest Pro utilisent la « configuration de l’espace », une méthode dans laquelle les caméras et les capteurs de profondeur du casque créent une représentation en 3D de l’environnement. Cette analyse permet aux équipes de développement de créer du contenu virtuel qui interagit de manière réaliste avec des objets physiques et répond selon des propriétés physiques précises.
Les API Caméra réelle, Scene et Ancrages sont essentielles pour permettre la configuration de l’espace et les expériences de réalité mixte dynamiques. En mode Caméra réelle, les applications peuvent utiliser les caméras externes de l’appareil pour capturer les environnements physiques en temps réel, ce qui permet aux utilisateur·ices de voir leur environnement dans le casque. Après avoir obtenu un flux d’un espace physique, l’API Scene permet aux applications d’identifier et de comprendre les objets physiques tels que les portes, le sol et le plafond. En comprenant les objets physiques, le contenu virtuel peut interagir et entrer en collision avec des objets physiques comme s’ils se trouvaient dans le même espace, afin que l’utilisateur·ice ressente une impression de présence plus forte lors de l’utilisation du casque. Grâce aux ancrages spatiaux, votre application peut faire en sorte que les objets virtuels conservent leur position pendant et entre les sessions pour offrir une expérience utilisateur plus cohérente et plaisante.