SDK Android XR hiện đã có trong Bản dùng thử cho nhà phát triển. Chúng tôi rất mong nhận được ý kiến phản hồi của bạn! Hãy truy cập vào
trang hỗ trợ của chúng tôi để liên hệ.
Phát triển bằng OpenXR
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Android XR hỗ trợ các ứng dụng được tạo bằng OpenXR thông qua khả năng hỗ trợ quy cách OpenXR 1.1 và một số tiện ích của nhà cung cấp.
OpenXR là một tiêu chuẩn mở cho phép bạn tạo ra những trải nghiệm sống động và mang tính tương tác bằng cách sử dụng một bộ API chung trên nhiều thiết bị XR.
Tính năng
Android XR hỗ trợ các tính năng cho phép bạn tạo ứng dụng tận dụng tối đa các chức năng riêng biệt của thiết bị XR bằng OpenXR. Các tính năng này bao gồm:
- Trackables
- Hỗ trợ tính năng phát hiện mặt phẳng, tức là khả năng xác định và theo dõi các bề mặt phẳng trong môi trường, cho phép đặt các đối tượng ảo liên quan đến thế giới thực và Neo là các điểm tham chiếu ảo có thể được gắn vào các đối tượng hoặc vị trí ngoài đời thực, đảm bảo rằng nội dung ảo vẫn được định vị và định hướng chính xác ngay cả khi người dùng di chuyển.
- Tạo tia ngắm
- Một kỹ thuật được dùng để xác định điểm giao nhau giữa một tia ảo và các đối tượng trong cảnh, tạo điều kiện thuận lợi cho các hoạt động tương tác như chọn và thao tác các phần tử ảo.
- Khả năng lưu trữ cố định điểm neo
- Khả năng lưu và khôi phục các điểm neo trên nhiều phiên, cho phép đặt nội dung ảo một cách nhất quán và liên tục trong môi trường.
- Theo dõi đối tượng
- Khả năng theo dõi chuột, bàn phím và các đối tượng khác trong thế giới thực.
- Theo dõi mã QR
- Khả năng theo dõi mã QR trong môi trường thực và giải mã dữ liệu của mã QR.
- Kết cấu chiều sâu
- Việc tạo bản đồ độ sâu cung cấp thông tin về khoảng cách giữa camera và các đối tượng trong cảnh, cho phép tạo hiệu ứng tương tác và che khuất chân thực hơn.
- Chế độ thực tế
- Khả năng kết hợp cảnh quay từ camera trong thế giới thực với nội dung ảo, tạo ra trải nghiệm thực tế hỗn hợp kết hợp liền mạch giữa thế giới thực và thế giới kỹ thuật số.
- Lưới cảnh
- Khả năng thu thập một lưới 3D của môi trường. Lưới này có thể được dùng cho vật lý, sự tắc nghẽn và các hoạt động tương tác khác có nhận biết thế giới thực.
- Lớp thành phần truyền qua
- Cho phép cắt lớp thành phần truyền qua đa giác, có thể dùng để đưa các đối tượng trong thế giới thực vào một cảnh.
- Theo dõi khuôn mặt
- Khả năng theo dõi các đặc điểm trên khuôn mặt của người dùng, cho phép tạo ra các hình đại diện và nhân vật ảo chân thực và biểu cảm hơn.
- Theo dõi ánh mắt
- Cung cấp vị trí và hướng của mắt người dùng, được thiết kế để làm cho tư thế mắt của hình đại diện trông chân thực hơn.
- Theo dõi cử chỉ tay
- Khả năng theo dõi vị trí và chuyển động của bàn tay người dùng.
- Lưới bàn tay
- Cung cấp thông tin chính xác về bàn tay của người dùng dưới dạng một lưới đa giác thấp. Được tối ưu hoá để phân phối từ nền tảng đến ứng dụng nhằm đảm bảo bạn đạt được hiệu suất tốt nhất có thể. Đây là giải pháp thay thế cho các tiện ích khác sử dụng tư thế liên kết và trọng số kết hợp.
- Ước tính ánh sáng
- Được dùng cho các mô hình chiếu sáng để phù hợp với điều kiện ánh sáng thực tế của người dùng.
Android XR cũng hỗ trợ các thiết bị đầu vào sau.
- Tương tác bằng tay
- Nhận dạng các cử chỉ cụ thể của bàn tay, chẳng hạn như chụm, vuốt và chỉ, cho phép người dùng tương tác với các đối tượng ảo bằng cử chỉ và chuyển động của bàn tay.
- Tương tác bằng ánh mắt
- Khả năng theo dõi chuyển động mắt của người dùng, cho phép họ chọn và tương tác với các đối tượng ảo bằng ánh mắt.
- Bộ điều khiển chuyển động 6DoF
- Khả năng theo dõi vị trí và chuyển động của bộ điều khiển cùng với các chế độ liên kết D-pad và nút để kích hoạt các hành động hoặc sự kiện di chuột trong ứng dụng.
- Tương tác bằng chuột
- Khả năng tương tác của người dùng với các đối tượng thông qua con trỏ chuột trong không gian 3D
Android XR hỗ trợ các tính năng sau liên quan đến hiệu suất.
- Lấy nét dựa trên ánh mắt
- Cho phép ứng dụng chỉ hiển thị nội dung có độ phân giải cao hơn tại tiêu điểm của mắt.
- Vượt thời gian và không gian
- Sử dụng vectơ vận tốc và thông tin về kết cấu chiều sâu để tạo các khung hình trung gian, giúp tăng tốc độ khung hình cần thiết để giữ cho người dùng đắm chìm trong trải nghiệm của bạn
- Các chỉ số hiệu suất
- Cung cấp chỉ số hiệu suất của Android XR trong thời gian chạy của thiết bị XR, trình kết hợp và ứng dụng XR hiện tại. Điều này bao gồm thời gian kết xuất khung hình của CPU, thời gian kết xuất khung hình của GPU, mức sử dụng GPU, tần số CPU, số khung hình trên giây và nhiều chỉ số khác.
Hãy xem Tổng quan về tính năng OpenXR để biết danh sách đầy đủ các tính năng và tiện ích được hỗ trợ.
Công cụ được hỗ trợ
Unity
Khả năng hỗ trợ Unity của Android XR (dựa trên OpenXR) cho phép nhà phát triển tạo trải nghiệm bằng Unity 6. Tìm hiểu thêm về cách tạo ứng dụng thực tế mở rộng bằng Unity trong phần Tổng quan về Unity.
OpenXR™ và biểu trưng OpenXR là các nhãn hiệu thuộc sở hữu của The Khronos Group Inc. và được đăng ký làm nhãn hiệu ở Trung Quốc, Liên minh Châu Âu, Nhật Bản và Vương quốc Anh.
Nội dung và mã mẫu trên trang này phải tuân thủ các giấy phép như mô tả trong phần Giấy phép nội dung. Java và OpenJDK là nhãn hiệu hoặc nhãn hiệu đã đăng ký của Oracle và/hoặc đơn vị liên kết của Oracle.
Cập nhật lần gần đây nhất: 2025-07-30 UTC.
[null,null,["Cập nhật lần gần đây nhất: 2025-07-30 UTC."],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]