Gemini-KI-Modelle

Die Modellfamilien Gemini Pro und Gemini Flash bieten Android-Entwicklern multimodale KI-Funktionen, die Inferenz in der Cloud ausführen und Bild-, Audio-, Video- und Texteingaben in Android-Apps verarbeiten.

  • Gemini Pro: Gemini Pro ist das innovative Denkmodell von Google, das in der Lage ist, komplexe Probleme in den Bereichen Programmieren, Mathematik und Naturwissenschaften, Technik, Ingenieurwesen und Mathematik (STEM) zu lösen und große Datensätze, Codebasen und Dokumente mit langem Kontext zu analysieren.
  • Gemini Flash: Die Gemini Flash-Modelle bieten Funktionen der nächsten Generation und verbesserte Funktionen, darunter eine höhere Geschwindigkeit, die Nutzung integrierter Tools und ein Kontextfenster von 1 Million Tokens.

Firebase AI Logic

Mit Firebase AI Logic können Entwickler generative KI von Google sicher und direkt in ihre Apps einbinden. Das vereinfacht die Entwicklung und bietet Tools und Produktintegrationen für eine erfolgreiche Produktionsbereitschaft. Es bietet Client-Android-SDKs, mit denen die Gemini API direkt über Clientcode eingebunden und aufgerufen werden kann. Dadurch wird die Entwicklung vereinfacht, da kein Backend erforderlich ist.

API-Anbieter

Mit Firebase AI Logic können Sie die folgenden Google Gemini API-Anbieter verwenden: die Gemini Developer API und die Vertex AI Gemini API.

Abbildung einer Android-App, die das Firebase Android SDK verwendet, um eine Verbindung zu Firebase in der Cloud herzustellen. Von dort aus wird die KI-Logik über zwei Wege integriert: die Gemini Developer API oder Vertex AI von Google Cloud Platform. Beide nutzen Gemini Pro- und Flash-Modelle.
Abbildung 1: Architektur der Firebase AI Logic-Integration.

Hier sind die wichtigsten Unterschiede für die einzelnen API-Anbieter:

Gemini Developer API:

  • Mit einer großzügigen kostenlosen Stufe ohne Angabe von Zahlungsinformationen kostenlos starten.
  • Sie können optional auf die kostenpflichtige Stufe der Gemini Developer API upgraden, um die Skalierung mit dem Wachstum Ihrer Nutzerbasis zu ermöglichen.
  • Mit Google AI Studio können Sie Prompts iterieren und damit experimentieren und sogar Code-Snippets abrufen.

Vertex AI Gemini API:

  • Detaillierte Kontrolle darüber, wo Sie auf das Modell zugreifen.
  • Ideal für Entwickler, die bereits in das Vertex AI-/Google Cloud-Ökosystem eingebunden sind.
  • Mit Vertex AI Studio können Sie Prompts iterieren und testen und sogar Code-Snippets abrufen.

Die Auswahl des geeigneten API-Anbieters für Ihre Anwendung hängt von Ihren geschäftlichen und technischen Einschränkungen sowie von Ihrer Vertrautheit mit dem Vertex AI- und Google Cloud-Ökosystem ab. Die meisten Android-Entwickler, die gerade erst mit der Integration von Gemini Pro oder Gemini Flash beginnen, sollten die Gemini Developer API verwenden. Der Wechsel zwischen Anbietern erfolgt durch Ändern des Parameters im Modellkonstruktor:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Vollständige Liste der verfügbaren generativen KI-Modelle, die von den Client-SDKs für Firebase AI Logic unterstützt werden

Firebase-Dienste

Zusätzlich zum Zugriff auf die Gemini API bietet Firebase AI Logic eine Reihe von Diensten, die die Bereitstellung von KI-Funktionen in Ihrer App vereinfachen und Sie auf die Produktion vorbereiten:

App-Überprüfung

Firebase App Check schützt App-Back-Ends vor Missbrauch, indem nur autorisierte Clients auf Ressourcen zugreifen können. Es lässt sich in Google-Dienste (einschließlich Firebase und Google Cloud) und benutzerdefinierte Back-Ends einbinden. App Check verwendet Play Integrity, um zu prüfen, ob Anfragen von der authentischen App und einem nicht manipulierten Gerät stammen.

Remote Config

Anstatt den Modellnamen in Ihrer App zu codieren, empfehlen wir, eine servergesteuerte Variable mit Firebase Remote Config zu verwenden. So können Sie das von Ihrer App verwendete Modell dynamisch aktualisieren, ohne eine neue Version Ihrer App bereitstellen oder Ihre Nutzer dazu auffordern zu müssen, eine neue Version zu installieren. Mit Remote Config können Sie auch A/B-Tests für Modelle und Prompts durchführen.

KI-Monitoring

Um die Leistung Ihrer KI-Funktionen zu analysieren, können Sie das Dashboard für KI-Monitoring in der Firebase Console verwenden. Sie erhalten wertvolle Einblicke in Nutzungsmuster, Leistungsmesswerte und Debugging-Informationen für Ihre Gemini API-Aufrufe.

Zu Firebase AI Logic migrieren

Wenn Sie das Vertex AI in Firebase SDK bereits in Ihrer App verwenden, lesen Sie die Migrationsanleitung.