Yapay zeka gözlükleri için ilk etkinliğinizi oluşturma

Uygun XR cihazlar
Bu kılavuz, bu tür XR cihazlar için deneyimler oluşturmanıza yardımcı olur.
Yapay Zeka Gözlükleri

Yapay zeka gözlüğü deneyimi, mevcut Android Activity çerçevesi API üzerine kurulmuştur ve yapay zeka gözlüklerinin benzersiz yönlerini desteklemek için ek kavramlar içerir. Cihazda tam APK çalıştıran XR kulaklıklarının aksine, yapay zeka gözlükleri telefonunuzun mevcut uygulamasında çalışan özel bir etkinlik kullanır. Bu etkinlik, ana cihazdan yapay zeka gözlüklerine yansıtılır.

Uygulamanızın yapay zeka gözlüğü deneyimini oluşturmak için mevcut telefon uygulamanızı yapay zeka gözlükleri için yeni bir yansıtılan Activity oluşturarak genişletirsiniz. Bu etkinlik, yapay zeka gözlüklerindeki uygulamanızın ana lansman giriş noktası olarak kullanılır. Bu yaklaşım, telefonunuz ve yapay zeka gözlüğü deneyimleriniz arasında iş mantığını paylaşmanıza ve yeniden kullanmanıza olanak tanıdığı için geliştirme sürecini basitleştirir.

Sürüm uyumluluğu

Jetpack XR SDK için Android SDK uyumluluk koşullarını kontrol edin.

Bağımlılıklar

AI gözlükleri için aşağıdaki kitaplık bağımlılıklarını ekleyin:

Groovy

dependencies {
    implementation "androidx.xr.runtime:runtime:1.0.0-alpha10"
    implementation "androidx.xr.glimmer:glimmer:1.0.0-alpha06"
    implementation "androidx.xr.projected:projected:1.0.0-alpha04"
    implementation "androidx.xr.arcore:arcore:1.0.0-alpha10"
}

Kotlin

dependencies {
    implementation("androidx.xr.runtime:runtime:1.0.0-alpha10")
    implementation("androidx.xr.glimmer:glimmer:1.0.0-alpha06")
    implementation("androidx.xr.projected:projected:1.0.0-alpha04")
    implementation("androidx.xr.arcore:arcore:1.0.0-alpha10")
}

Uygulamanızın manifest dosyasında etkinliğinizi beyan edin

Diğer etkinlik türlerinde olduğu gibi, sistemin etkinliğinizi görmesi ve çalıştırması için uygulamanızın manifest dosyasında etkinliğinizi beyan etmeniz gerekir.

<application>
  <activity
      android:name="com.example.xr.projected.GlassesMainActivity"
      android:exported="true"
      android:requiredDisplayCategory="xr_projected"
      android:label="Example AI Glasses activity">
      <intent-filter>
          <action android:name="android.intent.action.MAIN" />
      </intent-filter>
  </activity>
</application>

Kodla ilgili önemli noktalar

  • Sisteme, bu etkinliğin bağlı bir cihazdaki donanıma erişmek için tahmini bir bağlam kullanması gerektiğini bildirmek üzere android:requiredDisplayCategory özelliği için xr_projected değerini belirtir.

Etkinliğinizi oluşturma

Ardından, ekran her açıldığında yapay zeka gözlüğünde bir şeyler gösterebilen küçük bir etkinlik oluşturacaksınız.

@OptIn(ExperimentalProjectedApi::class)
class GlassesMainActivity : ComponentActivity() {

    private var displayController: ProjectedDisplayController? = null
    private var isVisualUiSupported by mutableStateOf(false)
    private var areVisualsOn by mutableStateOf(true)

    override fun onCreate(savedInstanceState: Bundle?) {
        super.onCreate(savedInstanceState)

        lifecycle.addObserver(object : DefaultLifecycleObserver {
            override fun onDestroy(owner: LifecycleOwner) {
                displayController?.close()
                displayController = null
            }
        })

        lifecycleScope.launch {
            // Check device capabilities
            val projectedDeviceController = ProjectedDeviceController.create(this@GlassesMainActivity)
            isVisualUiSupported = projectedDeviceController.capabilities.contains(CAPABILITY_VISUAL_UI)

            val controller = ProjectedDisplayController.create(this@GlassesMainActivity)
            displayController = controller
            val observer = GlassesLifecycleObserver(
                context = this@GlassesMainActivity,
                controller = controller,
                onVisualsChanged = { visualsOn -> areVisualsOn = visualsOn }
            )
            lifecycle.addObserver(observer)
        }

        setContent {
            GlimmerTheme {
                HomeScreen(
                    areVisualsOn = areVisualsOn,
                    isVisualUiSupported = isVisualUiSupported,
                    onClose = { finish() }
                )
            }
        }
    }
}

Kodla ilgili önemli noktalar

Composable'ı uygulama

Oluşturduğunuz etkinlik, uygulamanız gereken bir HomeScreen composable işlevine referans veriyor. Aşağıdaki kod, yapay zeka gözlüğünün ekranında metin görüntüleyebilen bir composable tanımlamak için Jetpack Compose Glimmer'ı kullanır:

@Composable
fun HomeScreen(
    areVisualsOn: Boolean,
    isVisualUiSupported: Boolean,
    onClose: () -> Unit,
    modifier: Modifier = Modifier
) {
    Box(
        modifier = modifier
            .surface(focusable = false)
            .fillMaxSize(),
        contentAlignment = Alignment.Center
    ) {
        if (isVisualUiSupported) {
            Card(
                title = { Text("Android XR") },
                action = {
                    Button(onClick = onClose) {
                        Text("Close")
                    }
                }
            ) {
                if (areVisualsOn) {
                    Text("Hello, AI Glasses!")
                } else {
                    Text("Display is off. Audio guidance active.")
                }
            }
        } else {
            Text("Audio Guidance Mode Active")
        }
    }
}

Kodla ilgili önemli noktalar

  • Daha önce etkinliğinizde tanımladığınız gibi, HomeScreen işlevi, yapay zeka gözlüğünün ekranı açıkken kullanıcının gördüğü birleştirilebilir içeriği içerir.
  • Jetpack Compose Glimmer Text bileşeni, gözlüğün ekranında "Merhaba, Yapay Zeka Gözlükleri!" metnini gösterir.
  • Jetpack Compose Glimmer, yapay zeka gözlüğü etkinliğinde onClose üzerinden finish() çağrısı yaparak etkinliği Button kapatır.

Yapay zeka gözlüğünün bağlı olup olmadığını kontrol etme

Etkinliğinizi başlatmadan önce kullanıcının yapay zeka gözlüğünün telefonuna bağlı olup olmadığını belirlemek için ProjectedContext.isProjectedDeviceConnected yöntemini kullanın. Bu yöntem, bağlantı durumuyla ilgili anlık güncellemeler almak için uygulamanızın gözlemleyebileceği bir Flow<Boolean> döndürür.

Etkinliğinizi başlatma

Temel bir etkinlik oluşturduğunuza göre artık bu etkinliği gözlüğünüzde başlatabilirsiniz. Uygulamanızın gözlüğün donanımına erişebilmesi için etkinliğinizi, aşağıdaki kodda gösterildiği gibi sisteme yansıtılmış bir bağlam kullanmasını söyleyen belirli seçeneklerle başlatması gerekir:

val options = ProjectedContext.createProjectedActivityOptions(context)
val intent = Intent(context, GlassesMainActivity::class.java)
context.startActivity(intent, options.toBundle())

createProjectedActivityOptions yöntemi, ProjectedContext içinde etkinliğinizi planlanan bir bağlamda başlatmak için gerekli seçenekleri oluşturur. context parametresi, telefondaki veya gözlük cihazındaki bir bağlam olabilir.

Sonraki adımlar

Yapay zeka gözlükleri için ilk etkinliğinizi oluşturduğunuza göre şimdi de işlevselliğini genişletebileceğiniz diğer yöntemleri keşfedin: