Gemini-KI-Modelle

Die Modellfamilien Gemini Pro und Gemini Flash bieten Android-Entwicklern multimodale KI-Funktionen, die Inferenz in der Cloud ausführen und Bild-, Audio-, Video- und Texteingaben in Android-Apps verarbeiten.

  • Gemini Pro: Gemini 2.5 Pro ist das innovative Modell von Google für logisches Denken, das in der Lage ist, komplexe Probleme in den Bereichen Programmieren, Mathematik und Naturwissenschaften, Technik, Ingenieurwesen und Mathematik (STEM) zu lösen und große Datensätze, Codebasen und Dokumente mithilfe eines langen Kontexts zu analysieren.
  • Gemini Flash: Die Gemini Flash-Modelle bieten Funktionen der nächsten Generation und verbesserte Möglichkeiten, darunter eine höhere Geschwindigkeit, die Nutzung integrierter Tools und ein Kontextfenster von 1 Million Tokens.

Firebase AI Logic

Mit Firebase AI Logic können Entwickler generative KI von Google sicher und direkt in ihre Apps einbinden. Das vereinfacht die Entwicklung und bietet Tools und Produktintegrationen für eine erfolgreiche Produktionsbereitschaft. Es bietet Client-Android-SDKs, mit denen die Gemini API direkt über Clientcode eingebunden und aufgerufen werden kann. Dadurch wird die Entwicklung vereinfacht, da kein Backend erforderlich ist.

API-Anbieter

Mit Firebase AI Logic können Sie die folgenden Google Gemini API-Anbieter verwenden: die Gemini Developer API und die Vertex AI Gemini API.

Abbildung einer Android-App, die das Firebase Android SDK verwendet, um eine Verbindung zu Firebase in der Cloud herzustellen. Von dort aus wird die KI-Logik über zwei Pfade eingebunden: die Gemini Developer API oder Vertex AI von Google Cloud Platform. Beide nutzen Gemini Pro- und Flash-Modelle.
Abbildung 1: Architektur der Firebase AI Logic-Integration.

Hier sind die wichtigsten Unterschiede für die einzelnen API-Anbieter:

Gemini Developer API:

  • Mit einer großzügigen kostenlosen Stufe ohne Angabe von Zahlungsinformationen starten.
  • Sie können optional auf die kostenpflichtige Stufe der Gemini Developer API upgraden, um die Skalierung mit dem Wachstum Ihrer Nutzerbasis zu ermöglichen.
  • Mit Google AI Studio können Sie Prompts iterieren und damit experimentieren und sogar Code-Snippets abrufen.

Vertex AI Gemini API:

  • Detaillierte Kontrolle darüber, wo Sie auf das Modell zugreifen.
  • Ideal für Entwickler, die bereits in das Vertex AI-/Google Cloud-Ökosystem eingebunden sind.
  • Mit Vertex AI Studio können Sie Prompts iterieren und testen und sogar Code-Snippets abrufen.

Die Auswahl des geeigneten API-Anbieters für Ihre Anwendung hängt von Ihren geschäftlichen und technischen Einschränkungen sowie von Ihrer Vertrautheit mit dem Vertex AI- und Google Cloud-Ökosystem ab. Die meisten Android-Entwickler, die gerade erst mit der Integration von Gemini Pro oder Gemini Flash beginnen, sollten die Gemini Developer API verwenden. Der Wechsel zwischen Anbietern erfolgt durch Ändern des Parameters im Modellkonstruktor:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Vollständige Liste der verfügbaren generativen KI-Modelle, die von den Firebase AI Logic-Client-SDKs unterstützt werden

Firebase-Dienste

Neben dem Zugriff auf die Gemini API bietet Firebase AI Logic eine Reihe von Diensten, die die Bereitstellung von KI-Funktionen in Ihrer App vereinfachen und Sie auf die Produktion vorbereiten:

App-Überprüfung

Firebase App Check schützt App-Back-Ends vor Missbrauch, indem nur autorisierte Clients auf Ressourcen zugreifen können. Es lässt sich in Google-Dienste (einschließlich Firebase und Google Cloud) und benutzerdefinierte Back-Ends einbinden. App Check verwendet Play Integrity, um zu prüfen, ob Anfragen von der authentischen App und einem nicht manipulierten Gerät stammen.

Remote Config

Anstatt den Modellnamen in Ihrer App fest zu codieren, empfehlen wir, eine servergesteuerte Variable mit Firebase Remote Config zu verwenden. So können Sie das von Ihrer App verwendete Modell dynamisch aktualisieren, ohne eine neue Version Ihrer App bereitstellen oder Ihre Nutzer auffordern zu müssen, eine neue Version zu installieren. Sie können Remote Config auch für A/B-Tests von Modellen und Prompts verwenden.

KI-Monitoring

Im Dashboard zum Monitoring von KI in der Firebase Console können Sie nachvollziehen, wie Ihre KI-basierten Funktionen funktionieren. Sie erhalten wertvolle Einblicke in Nutzungsmuster, Leistungsmesswerte und Debugging-Informationen für Ihre Gemini API-Aufrufe.

Zu Firebase AI Logic migrieren

Wenn Sie das Vertex AI in Firebase SDK bereits in Ihrer App verwenden, lesen Sie die Migrationsanleitung.