Android XR SDK זמין עכשיו בתצוגה מקדימה למפתחים. אנו רוצים את המשוב שלך! אפשר לפנות אלינו דרך
דף התמיכה.
פיתוח עם OpenXR
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
Android XR תומך באפליקציות שנוצרו באמצעות OpenXR דרך התמיכה שלו במפרט OpenXR 1.1 ובתוספים נבחרים של ספקים.
OpenXR הוא תקן פתוח שמאפשר ליצור חוויות אינטראקטיביות ועשירות באמצעות קבוצה משותפת של ממשקי API במגוון רחב של מכשירי XR.
תכונות
Android XR תומך בתכונות שמאפשרות לכם ליצור אפליקציות שמנצלות את היכולות הייחודיות של מכשירי XR, באמצעות OpenXR. התכונות האלה כוללות את הדברים הבאים.
- פריטים למעקב
- תמיכה בזיהוי מישור, כלומר היכולת לזהות ולעקוב אחרי משטחים שטוחים בסביבה, כדי לאפשר הצבה של אובייקטים וירטואליים ביחס לעולם האמיתי, ועוגנים, שהם נקודות התייחסות וירטואליות שאפשר לצרף לאובייקטים או למיקומים בעולם האמיתי, כדי להבטיח שהתוכן הווירטואלי יישאר ממוקם ומכוון בצורה מדויקת גם כשהמשתמש נע בסביבה.
- יריית קרני לייזר
- טכניקה שמשמשת לקביעת נקודת החיתוך בין קרן וירטואלית לבין אובייקטים בסצנה, כדי לאפשר אינטראקציות כמו בחירה של אלמנטים וירטואליים ושינוי שלהם.
- התמדה של העוגן
- היכולת לשמור ולשחזר עוגנים בכמה סשנים, כדי לאפשר מיקום עקבי וקבוע של תוכן וירטואלי בסביבה.
- מעקב אחרי אובייקטים
- היכולת לעקוב אחרי העכבר, המקלדת ואובייקטים אחרים בעולם האמיתי.
- מעקב אחרי קוד QR
- היכולת לעקוב אחרי קודי QR בסביבה הפיזית ולפענח את הנתונים שלהם.
- מרקמי עומק
- יצירת מפות עומק שמספקות מידע על המרחק בין המצלמה לבין אובייקטים בסצנה, ומאפשרות ליצור אפקטים של הסתרה ואינטראקציה שנראים יותר מציאותיים.
- שקופה
- היכולת לשלב צילומים ממצלמה בעולם האמיתי עם תוכן וירטואלי, וליצור חוויית מציאות משולבת שמשלבת בצורה חלקה בין העולם הפיזי והעולם הדיגיטלי.
- מיפוי סצנות
- היכולת ליצור רשת תלת-ממדית של הסביבה, שאפשר להשתמש בה לפיזיקה, הסתרה ואינטראקציות אחרות שמודעות לסביבה.
- העברה של שכבת קומפוזיציה
- מאפשרת חיתוך של שכבת קומפוזיציה של מעבר פוליגון, ויכולה לשמש להוספת אובייקטים מהעולם האמיתי לסצנה.
- שליטה בעכבר ובמקלדת בעזרת תנועות של הפנים
- היכולת לעקוב אחרי תווי הפנים של המשתמש, כדי ליצור אווטרים ודמויות וירטואליות מציאותיים יותר עם הבעות פנים.
- מעקב עיניים
- מספק את המיקום והאוריינטציה של העין של המשתמש, במטרה להפוך את תנוחת העין של האווטרים למציאותית יותר.
- מעקב אחר תנועות הידיים
- היכולת לעקוב אחרי המיקום והתנועה של הידיים של המשתמש.
- רשת ידנית
- מספק ייצוג מדויק של הידיים של המשתמש כרשת עם מספר נמוך של פוליגונים. האופטימיזציה מתבצעת למסירה מפלטפורמה לאפליקציה כדי להבטיח שתקבלו את הביצועים הכי טובים שאפשר. זוהי חלופה לתוספים אחרים שמשתמשים בתנוחת קשירה ובמשקלים של מיזוג.
- הערכת תנאי התאורה
- משמשת למודלים של תאורה כדי להתאים לתנאי התאורה בעולם האמיתי של המשתמש.
בנוסף, Android XR תומך במכשירי הקלט הבאים.
- אינטראקציה עם הידיים
- זיהוי של תנועות ידיים ספציפיות, כמו צביטה, החלקה והצבעה, שמאפשר למשתמשים ליצור אינטראקציה עם אובייקטים וירטואליים באמצעות תנועות ידיים.
- אינטראקציה באמצעות מבט
- היכולת לעקוב אחרי תנועות העיניים של המשתמש, כדי לאפשר לו לבחור אובייקטים וירטואליים ולבצע איתם אינטראקציה באמצעות המבט.
- בקרי תנועה 6DoF
- היכולת לעקוב אחרי המיקום והתנועה של אמצעי הבקרה, יחד עם מיפויים של לחצני D-pad ולחצנים להפעלת פעולות או אירועי ריחוף בתוך האפליקציה.
- אינטראקציה עם העכבר
- היכולת של המשתמשים ליצור אינטראקציה עם אובייקטים באמצעות מצביע עכבר במרחב תלת-ממדי
Android XR תומך בתכונות הבאות שקשורות לביצועים.
- פובאציה במעקב עיניים
- ההרשאה מאפשרת לאפליקציה להציג תוכן ברזולוציה גבוהה יותר רק בנקודת המיקוד של העיניים.
- עיוות המרחב
- משתמש בווקטורים של מהירות ובמידע על מרקם עומק כדי ליצור מסגרות ביניים, וכך משפר את קצב הפריימים שנדרש כדי שהמשתמשים ימשיכו ליהנות מהחוויות שלכם
- מדדי ביצועים
- מספק מדדי ביצועים של Android XR בזמן הריצה של מכשיר ה-XR הנוכחי, של המרכיב (compositor) ושל אפליקציית ה-XR. הערכים האלה כוללים את cpu
frametime, gpu frame time, gpu utilization, cpu frequency, frames per second
ועוד.
בסקירה הכללית של תכונת OpenXR מופיעה רשימה מלאה של התכונות והתוספים הנתמכים.
מנועי חיפוש נתמכים
Unity
התמיכה של Android XR ב-Unity, שמבוססת על OpenXR, מאפשרת למפתחים ליצור חוויות באמצעות Unity 6. מידע נוסף על פיתוח אפליקציות XR באמצעות Unity
OpenXR™ והלוגו של OpenXR הם סימנים מסחריים בבעלות The Khronos Group Inc. והם רשומים כסימן מסחרי בסין, באיחוד האירופי, ביפן ובבריטניה.
דוגמאות התוכן והקוד שבדף הזה כפופות לרישיונות המפורטים בקטע רישיון לתוכן. Java ו-OpenJDK הם סימנים מסחריים או סימנים מסחריים רשומים של חברת Oracle ו/או של השותפים העצמאיים שלה.
עדכון אחרון: 2025-07-30 (שעון UTC).
[null,null,["עדכון אחרון: 2025-07-30 (שעון UTC)."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]