API Gemini di Vertex AI

Se non hai mai utilizzato l'API Gemini, l'API Gemini Developer è il provider API consigliato per gli sviluppatori Android. Tuttavia, se hai requisiti di località specifici per i dati o se hai già eseguito l'incorporamento nell'ambiente Vertex AI o Google Cloud, puoi utilizzare l'API Vertex AI Gemini.

Migrazione da Vertex AI in Firebase

Se in origine hai integrato i modelli Gemini Flash e Pro utilizzando Vertex AI in Firebase, puoi eseguire la migrazione e continuare a utilizzare Vertex AI come fornitore di API. Leggi la documentazione di Firebase per una guida alla migrazione dettagliata.

Per iniziare

Prima di interagire con l'API Vertex AI Gemini direttamente dalla tua app, puoi sperimentare con i prompt in Vertex AI Studio.

Configura un progetto Firebase e connetti la tua app a Firebase

Quando è tutto pronto per chiamare l'API Vertex AI Gemini dalla tua app, segui le istruzioni della guida introduttiva di Firebase AI Logic "Passaggio 1" per configurare Firebase e l'SDK nella tua app.

Aggiungi la dipendenza Gradle

Aggiungi la seguente dipendenza Gradle al modulo dell'app:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Inizializza il modello generativo

Inizia creando un'istanza di GenerativeModel e specificando il nome del modello:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Nella documentazione di Firebase puoi scoprire di più sui modelli disponibili per l'utilizzo con l'API Gemini Developer. Puoi anche scoprire di più sulla configurazione dei parametri del modello.

Genera testo

Per generare una risposta di testo, chiama il numero generateContent() con il tuo prompt.

Kotlin

// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Analogamente all'API Gemini Developer, puoi anche passare immagini, audio, video e file con il prompt di testo (vedi "Interagisci con l'API Gemini Developer dalla tua app").

Per scoprire di più sull'SDK Firebase AI Logic, leggi la documentazione di Firebase.