Développer

Développer des applications Unity pour les casques VR Meta Quest

Mis à jour: 11 sep 2025
Cette page présente les composants que vous pourriez utiliser lors du développement d’applications Unity pour les casques VR Meta Quest. Les casques VR Meta Quest fonctionnent sur un système d’exploitation basé sur Android appelé Horizon OS, qui vous permet d’accéder à leurs fonctionnalités pour des expériences VR immersives.
Si vous êtes novice en matière de développement Unity sur Quest, consultez le guide Hello World pour créer votre première application de réalité virtuelle.
Pour améliorer l’expérience d’utilisation de votre application et élargir sa portée, consultez la section Règles de conception.

Développement pour Horizon OS dans Unity

Meta fournit de nombreux packages Unity pour vous aider à développer des applications VR destinées aux casques Meta Quest. Le SDK Meta XR Core, par exemple, inclut une plateforme de réalité étendue personnalisée (XR) et assure la prise en charge de fonctionnalités XR fondamentales. D’autres SDK Meta XR spécialisés vous permettent d’intégrer différents types d’entrées utilisateur·ice dans votre projet Unity.

Le support Meta XR

Une scène 3D standard ne comprend qu’une seule caméra virtuelle qui filme la "vue Jeu". En revanche, une scène XR exploite un support composé de plusieurs caméras virtuelles individuelles, ainsi que des scripts, pour mapper les mouvements du casque sur la vue présentée à l’utilisateur·ice final·e.
Pour le développement XR dans Unity, le support XR (également appelé "origine XR" dans la documentation Unity) sert de point central au suivi dans une scène XR. Le support XR contient des GameObjects qui mappent les données de suivi des manettes et du casque de votre appareil sur la scène dans votre application. Ces données de suivi permettent de déplacer la caméra de la scène et interviennent également dans le contrôle des interactions et dans l’animation des poses des manettes et des mains.
Le SDK Meta XR Core inclut le prefab OVRCameraRig contenant un support XR personnalisé qui remplace la Main Camera (Caméra principale) classique de Unity. Les autres SDK Meta XR pour Unity comprennent des prefabs de support XR légèrement différents de celui-ci. Par exemple, le SDK Interaction inclut OVRCameraRigInteraction qui assure le suivi des manettes et des mains, complétant ainsi le prefab OVRCameraRig du SDK Meta XR Core.
Pour en savoir plus sur le support et les prefabs Meta XR, consultez la page Configurer les paramètres de la caméra Meta XR.

Gestion des entrées utilisateur·ice

Les applications développées avec les SDK Meta XR peuvent accéder aux entrées de la tête, des mains, du visage et de la voix d’un·e utilisateur·ice, et gérer ces entrées grâce à la technologie du casque Meta Quest et des manettes Touch.

Interactions

Les utilisateurs et utilisatrices peuvent interagir avec les applications XR par différentes méthodes immersives. Dans l’environnement, ils et elles peuvent bouger la tête pour découvrir différentes zones de la scène, tendre les mains pour attraper des objets et utiliser les boutons de leurs manettes pour effectuer des actions complexes telles que les déplacements.
Les interactions déterminent l’effet que les mouvements de la main et les actionnements de la manette ont sur les objets et l’environnement de l’utilisateur ou de l’utilisatrice.
Utilisez OVRInput pour accéder aux boutons des manettes, aux gâchettes et au suivi via des API de bas niveau. Consultez Présentation de l’entrée et du suivi des manettes pour plus d’informations sur l’utilisation de l’API OVRInput. Pour gérer des interactions plus complexes et des personnalisations, consultez le SDK Meta XR Interaction. Si vous avez besoin de compatibilité avec des plateformes hors Meta, utilisez le Unity Input System.

Suivi du corps et du visage

Les casques Meta Quest permettent de suivre les mouvements complexes que l’utilisateur ou l’utilisatrice effectue avec son corps et son visage. Grâce au SDK Meta XR Movement, vous pouvez exploiter les capacités de suivi du matériel Meta Quest pour offrir des expériences immersives et dynamiques à vos utilisateurs et utilisatrices.

Entrée du clavier

Votre application peut demander aux utilisateur·ices de saisir du texte. Les applications Horizon OS pour Meta Quest peuvent traiter du texte saisi à l’aide d’un clavier virtuel via les API intégrées dans le SDK Meta XR Core. Vous pouvez également utiliser un clavier physique avec une option de suivi intégrée via le kit d’outils de réalité mixte (MRUK). Consultez les liens suivants pour en savoir plus sur les claviers virtuels et le suivi des claviers physiques :

Entrée vocale

En plus des entrées par mouvements physiques et manettes, vous pouvez développer des applications permettant aux utilisateurs et utilisatrices d’interagir avec leur environnement à la voix.
Utilisez le SDK Meta XR Voice pour améliorer l’expérience XR en offrant des fonctionnalités d’interactions plus naturelles et flexibles aux utilisateurs et utilisatrices de l’application. Par exemple, des commandes vocales utilisant un seul mot permettent d’exécuter des actions plus rapidement que les manettes et une conversation interactive permet d’améliorer l’attractivité de l’application.

Intégration de fonctionnalités de réalité mixte

Le kit utilitaire spécial réalité mixte (MRUK) fournit un ensemble d’utilitaires et d’outils pour effectuer des opérations courantes lors du développement d’applications à perception spatiale pour Meta Quest. Ce kit facilite la programmation par rapport à l’environnement physique et l’utilisation des autres fonctionnalités de réalité mixte fournies par Meta.

Découverte des nouvelles fonctionnalités

Pour découvrir les nouvelles fonctionnalités, utilisez l’outil Blocs de création qui est fourni avec le SDK Meta XR Core et intégré dans l’éditeur.
Vous pouvez ajouter des blocs de création à votre scène en faisant glisser-déposer les prefabs expédiés avec les SDK Meta XR dans votre scène. Consultez les Échantillons de SDK Core pour des échantillons de projets ou en savoir plus sur les SDK individuels à partir de SDK Meta XR pour Unity.

Tester et déboguer à l’aide des outils Meta

Le test et le débogage de votre application constituent une étape essentielle dans le processus de développement XR. Meta propose plusieurs outils et processus pratiques, sous forme d’extensions pour l’éditeur Unity ou d’applications autonomes.

Aperçu de votre scène

Pour avoir un aperçu de la scène de votre projet pendant son développement, utilisez les outils suivants :
  • Meta Horizon Link : vous permet de streamer votre application sur un casque connecté à votre machine de développement via câble USB-C ou Wi-Fi.
    Remarque : Link est uniquement pris en charge sous Windows à l’heure actuelle. Si vous développez sous macOS, utilisez le Simulateur Meta XR pour tester vos projets pendant le développement.
  • Simulateur Meta XR : simule l’environnement de réalité étendue d’un casque sur votre machine de développement. XR Simulator est disponible pour le développement Windows et macOS. Il vous permet d’avoir un aperçu de votre scène de projet sur votre ordinateur sans casque VR.

Débogage des versions

Pour déboguer votre application depuis un casque, vous pouvez utiliser le Programme de débug immersif. Lorsque vous prévisualisez votre projet en utilisant Link ou Simulateur Meta XR, utilisez le Android Debug Bridge pour Meta Quest pris en charge par Unity.

Gestion des appareils

Pour gérer vos appareils de test pendant le développement, utilisez la Plateforme de développement Meta Quest (MQDH pour Meta Quest Developer Hub).
MQDH vous offre les possibilités suivantes :
  • Consulter les journaux des appareils et générer des traces Perfetto pour faciliter le débogage.
  • Effectuer des captures d’écran et enregistrer des vidéos de ce que vous voyez dans le casque.
  • Déployer des applications directement sur votre casque depuis votre ordinateur.
  • Partager votre expérience de réalité virtuelle (VR pour Virtual Reality) en mettant l’écran du casque en miroir sur l’ordinateur.
  • Télécharger les derniers outils et SDK Meta Quest
  • Importer des applications dans le Tableau de bord développeur(se) Meta Horizon pour les distribuer via le Store
  • Désactiver le capteur de proximité et le système de limites pour un flux de tests ininterrompu
Pour commencer à utiliser MQDH, consultez la page Premiers pas avec la Plateforme de développement Meta Quest.

En savoir plus

Pour en savoir plus sur la création de scènes XR pour Meta Quest dans Unity, consultez les ressources suivantes :

Règles de conception

Les Règles de conception sont les standards d’interface humaine de Meta qui aident les développeur(se)s à créer des expérience d’utilisation. Consultez les ressources suivantes pour commencer et passez en revue d’autres règles de conception dans les documents suivants d’Unity.

Prochaines étapes

Pour découvrir comment configurer rapidement un projet Unity pour le développement dans le casque Meta Quest, consultez la page Configurer Unity.
Logo nav.
Français (France)
©2026 Meta