Diese Dokumentation befasst sich mit dem neu eingeführten, eigenständigen XR-Simulator. Ältere Versionen des Meta Core SDK sind unter Umständen nicht vollständig kompatibel. Wenn Probleme auftreten, kannst du das Paket „com.meta.xr.simulator“ aus deinem Projekt entfernen und es mit dem Umschalter im Meta-XR-Simulator als aktive OpenXR-Runtime festlegen. Informationen zur Verwendung mit älteren Versionen findest du in der archivierten Dokumentation zum XR-Simulator.
Der Meta-XR-Simulator ist eine einfache OpenXR-Runtime, mit der du Meta Quest-Headsets und -Funktionen auf der API-Ebene simulieren kannst. Sie dient als umfassendes Test- und Entwicklungstool, mit dem du das Meta Quest-Erlebnis direkt auf deinem Entwicklungscomputer simulieren kannst – im Wesentlichen als virtuelles Meta Quest-Headset, das auf deinem Computer läuft. Es implementiert den OpenXR-Standard für XR-Apps und ist daher mit allen OpenXR-Apps kompatibel, einschließlich solcher, die mit Unity erstellt wurden.
Du kannst damit Apps testen und debuggen, ohne ein Headset auf- oder absetzen zu müssen. Außerdem lässt sich dadurch die Automatisierung skalieren, indem die Einrichtung deiner Testumgebung vereinfacht wird.
Simuliert Meta Quest-Geräte (z. B. Quest 2, Quest 3 und Quest Pro):
Stereoskopisches Rendering mit gerätespezifischen Eigenschaften
Headset- und Controller-Tracking
Hand-Tracking
Body-Tracking
Eingabesysteme (Controller, Hände)
Synthetische Umgebungen
Die virtuellen Bereiche, in denen deine Anwendung ausgeführt wird.
Wenn du ein physisches Meta Quest-Headset verwendest, interagiert deine App mit der physischen Welt um dich herum. Das Headset nutzt Kameras, um dein Zimmer zu erfassen, Wände und Möbel zu erkennen und Passthrough zu ermöglichen, damit du deine Umgebung sehen kannst. Im Meta-XR-Simulator dienen synthetische Umgebungen demselben Zweck. Sie sind vorab erstellte 3D-Räume, die Folgendes bieten:
Passthrough-Daten: Visuelle Darstellung des „physischen“ Raums
Spatial Anchors: Orte, an denen du virtuelle Objekte in der Umgebung anbringen kannst
Tiefendaten: Abstandsinformationen für realistische Interaktionen
Ohne eine synthetische Umgebung hätte deine App keine „physische Welt“, mit der sie interagieren könnte. Dies ist besonders wichtig für Mixed-Reality-Apps, in denen virtuelle Inhalte mit der physischen Umgebung verschmelzen.
Wichtige Funktionen
Eingabesimulation
Verwende deinen Entwicklungs-PC, um das simulierte Headset und die Hände zu steuern:
Tastatur und Maus: Weise Tastatur und Maus Headset- und Controller-Bewegungen zu.
Xbox-Controller: Verwende die bekannten Gamepad-Steuerelemente.
Hand-Tracking: Teste Handhaltungen, einschließlich Gesten zum Vergrößern/Verkleinern, Anstupsen und Greifen.
Physische Controller verbinden: Verwende deine realen Meta Quest-Controller im Simulator.
Du interagierst mit dem Meta-XR-Simulator über seine Fenster-Schnittstelle. Das Fenster sieht unterschiedlich aus, je nachdem, ob im Simulator eine App ausgeführt wird.
Hinweis: Du kannst mit der Maus über jedes Element im Simulator-Fenster fahren, um ein Tooltip mit zusätzlichen Informationen anzuzeigen.
Das XR-Simulator-Fenster
Wenn du den XR-Simulator zum ersten Mal öffnest
Wenn du den XR-Simulator ohne eine laufende App öffnest, wird im Fenster eine Meldung angezeigt und du hast Zugriff auf wichtige Einstellungen:
Eine synthetische Umgebung aus den verfügbaren Optionen auswählen
Nachdem du eine App im Simulator gestartet hast, wird das Fenster vollständig interaktiv und zeigt Folgendes an:
Viewport: Die Hauptansicht, die zeigt, was im Headset zu sehen wäre (standardmäßig die Ansicht für das linke Auge)
Symbolleiste: Eine Steuerungsleiste oben mit Statusanzeigen und Buttons zum Öffnen verschiedener Panels
Seitenleiste: Informations- und Bedienfelder, die sich auf der rechten Seite öffnen, wenn du auf Buttons in der Symbolleiste klickst.
Konsole: Ein Protokollbereich, den du öffnen kannst, um die Nachrichten des Meta-XR-Simulators anzuzeigen (standardmäßig ausgeblendet)
Symbolleiste
Die Symbolleiste verläuft am oberen Rand des Simulator-Fensters und bietet einen Schnellzugriff auf Statusinformationen und Steuerelemente:
Linke Seite: Verbindung und Aktivierung
Verbindungsanzeige: Ein Punkt, der anzeigt, ob die getestete App mit dem Simulator verbunden ist
Slider zur globalen Aktivierung: Aktiviert den Simulator global in deinem System, d. h. jede OpenXR-App wird automatisch versuchen, sich damit zu verbinden
Mitte: Seitenleisten-Trigger
Buttons, die bestimmte Seitenleisten öffnen. Klicke auf eine Schaltfläche, um das entsprechende Panel zu öffnen, das dann auf der rechten Seite des Fensters angezeigt wird. Verfügbare Panels:
Einstellungen
Aufzeichnung und Wiedergabe
Eingaben
Eingabe-Bindings
Konsole
Rechte Seite: Systemfunktionen
Info-Button: Zeigt Informationen zur verbundenen App an, welche Erweiterungen aktiviert sind und wo die Konfigurationsdateien abgelegt sind
Hilfe-Button: Zugriff auf Dokumentation und Support-Ressourcen
Feedback-Button: Feedback zum Simulator einreichen
Auswahl der synthetischen Umgebung: Öffnet das Menü für die Umgebungsauswahl, um einen anderen synthetischen Raum auszuwählen
Seitenleisten
In den Seitenleisten findest du detaillierte Steuerungsoptionen und Informationen. Sie erscheinen auf der rechten Seite des Fensters, wenn sie über die Symbolleiste aktiviert werden.
Einstellungspanel
Konfiguriere die simulierten Geräteeigenschaften:
Gerätemodell: Wähle zwischen Quest 2, Quest 3, Quest Pro und anderen unterstützten Geräten.
IPD (Interpupillardistanz): Passe den Abstand zwischen den Augen an.
Aktualisierungsrate: Lege die Aktualisierungsrate für das Display fest.
Hinweis: Einige Änderungen werden erst nach einem Neustart des Simulators wirksam.
Panel für Aufzeichnung und Wiedergabe
Automatisiere Tests, indem du Nutzungsaktionen aufnimmst und wiedergibst:
Aufzeichnen: Nimm eine Reihe von Aktionen während deiner Testsitzung auf.
Speichern: Speichere Aufnahmen lokal für die spätere Verwendung.
Wiedergabe: Spiele aufgezeichnete Sessions für konsistente und wiederholbare Tests ab.
Du kannst steuern, wie Eingaben im Meta-XR-Simulator simuliert werden:
Globale Eingabeeinstellungen: Lege fest, welche Teile des Tracking-Systems aktiv sein sollen:
Headset-Bewegung
Linke Hand/Controller
Rechte Hand/Controller – Diese Auswahl ist besonders wichtig in Situationen, in denen die Interaktion beispielsweise nur mit einer Hand ausgeführt werden muss.
Tastatur und Maus: Hier findest du die Point-and-Click-Funktion.
Physische Controller: Verbinde Quest-Controller mit dem Simulator.
Xbox-Controller: Controller-Simulator mit Xbox-Controller.
Steuerung der Bewegungsnachverfolgung: Damit kannst du aufgezeichnete Trackingdaten wiedergeben, um die Funktionen des Movement SDK wie Körper-, Gesichts- und Augen-Tracking zu testen.
Panel „Input Bindings“
Tastatur- und Controller-Zuordnungen anzeigen und anpassen
Die Tasten oder Buttons für jede Aktion ansehen (z. B. vorwärts bewegen, nach oben drehen oder greifen)
Die Tasten- oder Button-Zuweisungen an deine Präferenzen anpassen
Konsolenpanel
Sieh dir die Protokolle und Diagnoseinformationen des Meta-XR-Simulators an.