Le SDK Android XR est désormais disponible en version Preview développeur. Votre avis nous intéresse. Pour nous contacter, consultez notre
page d'assistance.
Développer avec OpenXR
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Android XR est compatible avec les applications conçues avec OpenXR grâce à sa compatibilité avec la spécification OpenXR 1.1 et certaines extensions de fournisseurs.
OpenXR est une norme ouverte qui vous permet de créer des expériences immersives et interactives à l'aide d'un ensemble commun d'API sur un large éventail d'appareils XR.
Fonctionnalités
Android XR est compatible avec les fonctionnalités qui vous permettent de créer des applications exploitant pleinement les capacités uniques des appareils XR, à l'aide d'OpenXR. Ces fonctionnalités incluent les suivantes.
- Éléments suivis
- Il est compatible avec la détection de plans, qui permet d'identifier et de suivre les surfaces planes dans l'environnement, ce qui permet de placer des objets virtuels par rapport au monde réel, et avec les ancres, qui sont des points de référence virtuels pouvant être associés à des objets ou des lieux réels, ce qui garantit que le contenu virtuel reste positionné et orienté avec précision même lorsque l'utilisateur se déplace.
- Raycasting
- Technique utilisée pour déterminer le point d'intersection entre un rayon virtuel et les objets de la scène, ce qui facilite les interactions telles que la sélection et la manipulation d'éléments virtuels.
- Persistance des ancres
- La possibilité d'enregistrer et de restaurer des ancres sur plusieurs sessions, ce qui permet de placer du contenu virtuel de manière persistante et cohérente dans l'environnement.
- Suivi des objets
- : capacité à suivre la souris, le clavier et d'autres objets dans le monde réel.
- Suivi par QR code
- La capacité à suivre les codes QR dans l'environnement physique et à décoder leurs données.
- Textures de profondeur
- Génération de cartes de profondeur qui fournissent des informations sur la distance entre la caméra et les objets de la scène, ce qui permet d'obtenir des effets d'occlusion et d'interaction plus réalistes.
- Passthrough
- La possibilité de mélanger des séquences vidéo réelles avec du contenu virtuel, créant ainsi une expérience de réalité mixte qui combine de manière fluide les mondes physique et numérique.
- Maillage de la scène
- La possibilité d'acquérir un maillage 3D de l'environnement, qui peut être utilisé pour la physique, l'occlusion et d'autres interactions tenant compte du monde réel.
- Transfert de la couche de composition
- Permet une découpe de calque de composition par transparence de polygone, qui peut être utilisée pour intégrer des objets réels dans une scène.
- Suivi du visage
- La possibilité de suivre les traits du visage de l'utilisateur, ce qui permet de créer des avatars et des personnages virtuels plus réalistes et expressifs.
- Oculométrie
- Fournit la position et l'orientation de l'œil de l'utilisateur, ce qui est conçu pour rendre la pose des yeux des avatars plus réaliste.
- Suivi des mains
- La possibilité de suivre la position et les mouvements des mains de l'utilisateur.
- Maillage de la main
- Fournit une représentation précise des mains de l'utilisateur sous la forme d'un maillage à faible nombre de polygones. Optimisé pour la diffusion de plate-forme à application afin de vous garantir les meilleures performances possibles. Il s'agit d'une alternative aux autres extensions qui utilisent une pose de liaison et des pondérations de mélange.
- Estimation de la luminosité
- Utilisé pour les modèles d'éclairage afin de correspondre aux conditions d'éclairage réelles de l'utilisateur.
Android XR est également compatible avec les périphériques d'entrée suivants.
- Interaction avec les mains
- Reconnaissance de gestes spécifiques de la main, comme pincer, balayer et pointer, permettant aux utilisateurs d'interagir avec des objets virtuels à l'aide de gestes et de mouvements de la main.
- Interaction par le regard
- La possibilité de suivre les mouvements des yeux de l'utilisateur, ce qui lui permet de sélectionner des objets virtuels et d'interagir avec eux à l'aide de son regard.
- Manettes de jeu à 6 degrés de liberté
- La possibilité de suivre la position et le mouvement des manettes, ainsi que les liaisons du pavé directionnel et des boutons pour déclencher des actions ou des événements de survol dans l'application.
- Interaction avec la souris
- La possibilité pour les utilisateurs d'interagir avec des objets à l'aide d'un pointeur de souris dans un espace 3D
Android XR est compatible avec les fonctionnalités liées aux performances suivantes.
- Fovéation avec suivi oculaire
- Permet à une application d'afficher du contenu en haute résolution uniquement au point focal des yeux.
- Déformation de l'espace
- Utilise des vecteurs de vitesse et des informations sur la texture de profondeur pour générer des frames intermédiaires, ce qui augmente efficacement la fréquence d'images requise pour que vos utilisateurs restent immergés dans vos expériences.
- Statistiques relatives aux performances
- Fournit des métriques de performances Android XR lors de l'exécution de l'appareil XR, du compositeur et de l'application XR actuels. Cela inclut le temps de rendu du processeur, le temps de rendu du GPU, l'utilisation du GPU, la fréquence du processeur, les images par seconde et plus encore.
Consultez la présentation des fonctionnalités OpenXR pour obtenir la liste complète des fonctionnalités et extensions compatibles.
Moteurs compatibles
Unity
La compatibilité d'Android XR avec Unity, basée sur OpenXR, permet aux développeurs de créer des expériences à l'aide d'Unity 6. Pour en savoir plus sur la création d'applications XR avec Unity, consultez la présentation d'Unity.
OpenXR™ et le logo OpenXR sont des marques déposées appartenant à The Khronos Group Inc. et sont enregistrées en Chine, dans l'Union européenne, au Japon et au Royaume-Uni.
Le contenu et les exemples de code de cette page sont soumis aux licences décrites dans la Licence de contenu. Java et OpenJDK sont des marques ou des marques déposées d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/30 (UTC).
[null,null,["Dernière mise à jour le 2025/07/30 (UTC)."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]