Pakiet SDK XR na Androida jest teraz dostępny w wersji dla programistów. Chcemy poznać Twoją opinię. Aby się z nami skontaktować, odwiedź naszą
stronę pomocy.
Programuj za pomocą OpenXR
Zadbaj o dobrą organizację dzięki kolekcji
Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.
Android XR obsługuje aplikacje utworzone za pomocą OpenXR dzięki obsłudze specyfikacji OpenXR 1.1 i wybranych rozszerzeń dostawców.
OpenXR to otwarty standard, który umożliwia tworzenie wciągających i interaktywnych środowisk za pomocą wspólnego zestawu interfejsów API na wielu urządzeniach XR.
Funkcje
Android XR obsługuje funkcje, które pozwalają tworzyć aplikacje w pełni wykorzystujące unikalne możliwości urządzeń XR za pomocą OpenXR. Obejmują one m.in.:
- Trackables
- Obsługuje wykrywanie płaszczyzn, czyli możliwość identyfikowania i śledzenia płaskich powierzchni w otoczeniu, co umożliwia umieszczanie wirtualnych obiektów w odniesieniu do świata rzeczywistego, oraz kotwice, czyli wirtualne punkty odniesienia, które można przyczepić do obiektów lub lokalizacji w świecie rzeczywistym, dzięki czemu wirtualne treści pozostają dokładnie umieszczone i zorientowane nawet wtedy, gdy użytkownik się porusza.
- Rzutowanie promieni
- Technika służąca do określania punktu przecięcia wirtualnego promienia z obiektami w scenie, która ułatwia interakcje, takie jak wybieranie i manipulowanie elementami wirtualnymi.
- Trwałość kotwicy
- Możliwość zapisywania i przywracania punktów zakotwiczenia w wielu sesjach, co pozwala na trwałe i spójne umieszczanie wirtualnych treści w środowisku.
- Śledzenie obiektów
- Możliwość śledzenia myszy, klawiatury i innych obiektów w rzeczywistym świecie.
- Śledzenie za pomocą kodu QR
- Możliwość śledzenia kodów QR w środowisku fizycznym i dekodowania ich danych.
- Tekstury głębi
- Generowanie map głębi, które zawierają informacje o odległości między aparatem a obiektami w scenie, co umożliwia uzyskanie bardziej realistycznych efektów zasłaniania i interakcji.
- Widok otoczenia
- Możliwość łączenia nagrań z kamery w świecie rzeczywistym z treściami wirtualnymi, co pozwala tworzyć środowisko mieszanej rzeczywistości, które płynnie łączy świat fizyczny i cyfrowy.
- Siatka sceny
- Możliwość uzyskania siatki 3D otoczenia, która może być używana do fizyki, okluzji i innych interakcji uwzględniających otoczenie.
- Przekazywanie warstwy kompozycji
- Umożliwia kompozycję z przezroczystym wycięciem w kształcie wielokąta, która może służyć do wprowadzania obiektów ze świata rzeczywistego do sceny.
- Śledzenie twarzy
- Możliwość śledzenia cech twarzy użytkownika, co pozwala tworzyć bardziej realistyczne i wyraziste awatary oraz wirtualne postacie.
- Śledzenie wzroku
- Określa położenie i orientację oka użytkownika, co ma na celu zwiększenie realizmu pozycji oczu awatarów.
- Śledzenie rąk
- Możliwość śledzenia pozycji i ruchu rąk użytkownika.
- Siatka dłoni
- Dokładnie odwzorowuje dłonie użytkownika w postaci siatki o niskiej liczbie wielokątów. Zoptymalizowany pod kątem dostarczania z platformy do aplikacji, aby zapewnić jak najlepszą wydajność. Jest to alternatywa dla innych rozszerzeń, które używają pozycji wiązania i wag mieszania.
- Szacowanie oświetlenia
- Używane w modelach oświetlenia, aby dopasować je do rzeczywistych warunków oświetleniowych użytkownika.
Android XR obsługuje też te urządzenia wejściowe:
- Interakcja z dłonią
- Rozpoznawanie określonych gestów rękami, takich jak szczypanie, przesuwanie i wskazywanie, umożliwiające użytkownikom interakcję z wirtualnymi obiektami za pomocą gestów i ruchów rąk.
- Interakcja za pomocą wzroku
- Możliwość śledzenia ruchów gałek ocznych użytkownika, dzięki czemu może on wybierać wirtualne obiekty i wchodzić z nimi w interakcję za pomocą wzroku.
- Kontrolery ruchu 6DoF
- Możliwość śledzenia pozycji i ruchu kontrolerów wraz z powiązaniami przycisków i pada kierunkowego w celu wywoływania działań lub zdarzeń najechania kursorem w aplikacji.
- Interakcja z myszą
- Możliwość interakcji użytkowników z obiektami za pomocą wskaźnika myszy w przestrzeni 3D
Android XR obsługuje te funkcje związane z wydajnością.
- Foveacja śledzona wzrokiem
- Zezwala aplikacji na renderowanie treści w wyższej rozdzielczości tylko w punkcie, na którym skupiają się oczy.
- Zakrzywienie przestrzeni
- Wykorzystuje wektory prędkości i informacje o teksturze głębi do generowania klatek pośrednich, co skutecznie zwiększa liczbę klatek na sekundę wymaganą do utrzymania zaangażowania użytkowników.
- Dane dotyczące skuteczności
- Podaje dane o wydajności Androida XR w czasie działania bieżącego urządzenia XR, kompozytora i aplikacji XR. Obejmuje to czas renderowania klatki przez procesor, czas renderowania klatki przez GPU, wykorzystanie GPU, częstotliwość procesora, liczbę klatek na sekundę i inne.
Pełną listę obsługiwanych funkcji i rozszerzeń znajdziesz w omówieniu funkcji OpenXR.
Obsługiwane wyszukiwarki
Unity
Obsługa Unity w Androidzie XR, oparta na OpenXR, umożliwia deweloperom tworzenie środowisk przy użyciu Unity 6. Więcej informacji o tworzeniu aplikacji XR za pomocą Unity znajdziesz w omówieniu Unity.
OpenXR™ i logo OpenXR są znakami towarowymi należącymi do The Khronos Group Inc. i są zarejestrowane jako znaki towarowe w Chinach, Unii Europejskiej, Japonii i Wielkiej Brytanii.
Treść strony i umieszczone na niej fragmenty kodu podlegają licencjom opisanym w Licencji na treści. Java i OpenJDK są znakami towarowymi lub zastrzeżonymi znakami towarowymi należącymi do firmy Oracle lub jej podmiotów stowarzyszonych.
Ostatnia aktualizacja: 2025-07-30 UTC.
[null,null,["Ostatnia aktualizacja: 2025-07-30 UTC."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]