Modele Gemini AI

Rodziny modeli Gemini Pro i Gemini Flash oferują deweloperom na Androida funkcje AI multimodalnej, które działają w chmurze i przetwarzają w aplikacjach na Androida dane wejściowe w postaci obrazów, dźwięku, filmów i tekstu.

  • Gemini Pro: Gemini 2.5 Pro to najnowocześniejszy model rozumowania od Google, który potrafi rozwiązywać złożone problemy związane z kodem, matematyką i naukami ścisłymi, a także analizować duże zbiory danych, bazy kodu i dokumenty przy użyciu długiego kontekstu.
  • Gemini Flash: modele Gemini Flash oferują funkcje nowej generacji i ulepszone możliwości, w tym większą szybkość, wbudowane narzędzia i okno kontekstu z milionem tokenów.

Firebase AI Logic

Firebase AI Logic umożliwia deweloperom bezpieczne i bezpośrednie dodawanie generatywnej AI od Google do aplikacji, co upraszcza proces tworzenia. Oferuje też narzędzia i integracje usług, które pomagają przygotować aplikację do wdrożenia. Udostępnia pakiety SDK klienta na Androida, które umożliwiają bezpośrednią integrację i wywoływanie interfejsu Gemini API z kodu klienta, co upraszcza proces programowania, ponieważ nie wymaga zaplecza.

Dostawcy interfejsów API

Firebase AI Logic umożliwia korzystanie z tych dostawców interfejsu Google Gemini API: Gemini Developer API i Vertex AI Gemini API.

Ilustracja przedstawiająca aplikację na Androida, która używa pakietu Firebase Android SDK do łączenia się z Firebase w chmurze. Logika AI jest integrowana na 2 sposoby: za pomocą interfejsu Gemini Developer API lub Vertex AI na platformie Google Cloud Platform. Oba sposoby wykorzystują modele Gemini Pro i Flash.
Rysunek 1. Architektura integracji Firebase AI Logic.

Oto główne różnice w przypadku poszczególnych dostawców interfejsów API:

Gemini Developer API:

  • Zacznij bezpłatnie korzystać z obszernych zasobów w ramach bezpłatnej wersji, bez konieczności podawania danych karty.
  • Możesz przejść na płatny poziom interfejsu Gemini Developer API, aby skalować go wraz ze wzrostem liczby użytkowników.
  • Iteruj i eksperymentuj z promptami, a nawet uzyskuj fragmenty kodu za pomocą Google AI Studio.

Vertex AI Gemini API:

Wybór odpowiedniego dostawcy interfejsu API dla aplikacji zależy od ograniczeń biznesowych i technicznych oraz znajomości ekosystemu Vertex AI i Google Cloud. Większość deweloperów Androida, którzy dopiero zaczynają korzystać z integracji Gemini Pro lub Gemini Flash, powinna zacząć od interfejsu Gemini Developer API. Aby przełączać się między dostawcami, zmień parametr w konstruktorze modelu:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Zobacz pełną listę dostępnych modeli generatywnej AI obsługiwanych przez pakiety SDK klienta Firebase AI Logic.

Usługi Firebase

Oprócz dostępu do interfejsu Gemini API usługa Firebase AI Logic oferuje zestaw usług, które upraszczają wdrażanie w aplikacji funkcji opartych na AI i przygotowują ją do środowiska produkcyjnego:

Sprawdzenie aplikacji

Sprawdzanie aplikacji Firebase chroni backendy aplikacji przed nadużyciami, zapewniając, że tylko autoryzowani klienci mają dostęp do zasobów. Jest zintegrowana z usługami Google (w tym Firebase i Google Cloud) oraz niestandardowymi backendami. App Check korzysta z Play Integrity, aby sprawdzać, czy żądania pochodzą z autentycznej aplikacji i niezmienionego urządzenia.

Zdalna konfiguracja

Zamiast na stałe kodować nazwę modelu w aplikacji, zalecamy używanie zmiennej kontrolowanej przez serwer za pomocą Zdalnej konfiguracji Firebase. Dzięki temu możesz dynamicznie aktualizować model używany przez aplikację bez konieczności wdrażania nowej wersji aplikacji lub proszenia użytkowników o pobranie nowej wersji. Możesz też używać Zdalnej konfiguracji do testowania A/B modeli i promptów.

Monitorowanie AI

Aby sprawdzić skuteczność funkcji opartych na AI, możesz użyć panelu monitorowania AI w konsoli Firebase. Uzyskasz cenne informacje o wzorcach użytkowania, wskaźnikach wydajności i informacje do debugowania wywołań Gemini API.

Migracja do Firebase AI Logic

Jeśli używasz już w aplikacji pakietu SDK Vertex AI w Firebase, przeczytaj przewodnik migracji.