Rodziny modeli Gemini Pro i Gemini Flash oferują deweloperom na Androida funkcje AI multimodalnej, które działają w chmurze i przetwarzają w aplikacjach na Androida dane wejściowe w postaci obrazów, dźwięku, filmów i tekstu.
- Gemini Pro: Gemini 2.5 Pro to najnowocześniejszy model rozumowania od Google, który potrafi rozwiązywać złożone problemy związane z kodem, matematyką i naukami ścisłymi, a także analizować duże zbiory danych, bazy kodu i dokumenty przy użyciu długiego kontekstu.
- Gemini Flash: modele Gemini Flash oferują funkcje nowej generacji i ulepszone możliwości, w tym większą szybkość, wbudowane narzędzia i okno kontekstu z milionem tokenów.
Firebase AI Logic
Firebase AI Logic umożliwia deweloperom bezpieczne i bezpośrednie dodawanie generatywnej AI od Google do aplikacji, co upraszcza proces tworzenia. Oferuje też narzędzia i integracje usług, które pomagają przygotować aplikację do wdrożenia. Udostępnia pakiety SDK klienta na Androida, które umożliwiają bezpośrednią integrację i wywoływanie interfejsu Gemini API z kodu klienta, co upraszcza proces programowania, ponieważ nie wymaga zaplecza.
Dostawcy interfejsów API
Firebase AI Logic umożliwia korzystanie z tych dostawców interfejsu Google Gemini API: Gemini Developer API i Vertex AI Gemini API.
Oto główne różnice w przypadku poszczególnych dostawców interfejsów API:
- Zacznij bezpłatnie korzystać z obszernych zasobów w ramach bezpłatnej wersji, bez konieczności podawania danych karty.
- Możesz przejść na płatny poziom interfejsu Gemini Developer API, aby skalować go wraz ze wzrostem liczby użytkowników.
- Iteruj i eksperymentuj z promptami, a nawet uzyskuj fragmenty kodu za pomocą Google AI Studio.
- Szczegółowa kontrola nad miejscem, w którym uzyskujesz dostęp do modelu.
- Idealne rozwiązanie dla programistów, którzy korzystają już z ekosystemu Vertex AI lub Google Cloud.
- Iteruj i eksperymentuj z promptami, a nawet uzyskuj fragmenty kodu za pomocą Vertex AI Studio.
Wybór odpowiedniego dostawcy interfejsu API dla aplikacji zależy od ograniczeń biznesowych i technicznych oraz znajomości ekosystemu Vertex AI i Google Cloud. Większość deweloperów Androida, którzy dopiero zaczynają korzystać z integracji Gemini Pro lub Gemini Flash, powinna zacząć od interfejsu Gemini Developer API. Aby przełączać się między dostawcami, zmień parametr w konstruktorze modelu:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Zobacz pełną listę dostępnych modeli generatywnej AI obsługiwanych przez pakiety SDK klienta Firebase AI Logic.
Usługi Firebase
Oprócz dostępu do interfejsu Gemini API usługa Firebase AI Logic oferuje zestaw usług, które upraszczają wdrażanie w aplikacji funkcji opartych na AI i przygotowują ją do środowiska produkcyjnego:
Sprawdzenie aplikacji
Sprawdzanie aplikacji Firebase chroni backendy aplikacji przed nadużyciami, zapewniając, że tylko autoryzowani klienci mają dostęp do zasobów. Jest zintegrowana z usługami Google (w tym Firebase i Google Cloud) oraz niestandardowymi backendami. App Check korzysta z Play Integrity, aby sprawdzać, czy żądania pochodzą z autentycznej aplikacji i niezmienionego urządzenia.
Zdalna konfiguracja
Zamiast na stałe kodować nazwę modelu w aplikacji, zalecamy używanie zmiennej kontrolowanej przez serwer za pomocą Zdalnej konfiguracji Firebase. Dzięki temu możesz dynamicznie aktualizować model używany przez aplikację bez konieczności wdrażania nowej wersji aplikacji lub proszenia użytkowników o pobranie nowej wersji. Możesz też używać Zdalnej konfiguracji do testowania A/B modeli i promptów.
Monitorowanie AI
Aby sprawdzić skuteczność funkcji opartych na AI, możesz użyć panelu monitorowania AI w konsoli Firebase. Uzyskasz cenne informacje o wzorcach użytkowania, wskaźnikach wydajności i informacje do debugowania wywołań Gemini API.
Migracja do Firebase AI Logic
Jeśli używasz już w aplikacji pakietu SDK Vertex AI w Firebase, przeczytaj przewodnik migracji.