Gemini Live API to kompleksowe rozwiązanie do wdrażania interfejsów konwersacyjnych dla użytkowników. Podczas tworzenia aplikacji na Androida XR możesz zintegrować ją z interfejsem Gemini Live API za pomocą Firebase AI Logic. W przeciwieństwie do zamiany tekstu na mowę (TTS) i automatycznego rozpoznawania mowy (ASR) interfejs Gemini Live API obsługuje zarówno wejście, jak i wyjście audio w sposób płynny. Interfejs Gemini Live API wymaga stałego połączenia z internetem, generuje koszty, obsługuje ograniczoną liczbę połączeń równoczesnych na projekt i może nie być idealny do obsługi błędów lub innych krytycznych komunikatów użytkownika, zwłaszcza w przypadku okularów AI bez wyświetlacza.
Oprócz obsługi interfejsów audio możesz też używać interfejsu Gemini Live API do tworzenia funkcji opartych na agentach.
Aby rozpocząć korzystanie z interfejsu Gemini Live API, postępuj zgodnie z instrukcjami podanymi w przewodniku po interfejsie Gemini Live API. Lista pomoże Ci utworzyć i skonfigurować LiveGenerativeModel, ustanowić LiveSession i utworzyć niestandardowe instancje FunctionDeclaration, które umożliwią Twojej aplikacji przetwarzanie żądań z Gemini.