API Vertex AI Gemini

Если вы новичок в API Gemini, рекомендуемым поставщиком API для разработчиков Android является Gemini Developer API . Но если у вас есть особые требования к местоположению данных или вы уже интегрированы в среду Vertex AI или Google Cloud, вы можете использовать Vertex AI Gemini API.

Миграция с Vertex AI в Firebase

Если вы изначально интегрировали модели Gemini Flash и Pro с помощью Vertex AI в Firebase, вы можете перейти на использование Vertex AI в качестве поставщика API и продолжить его использование. Подробное руководство по миграции см. в документации Firebase.

Начиная

Прежде чем напрямую взаимодействовать с API Vertex AI Gemini из своего приложения, вы можете поэкспериментировать с подсказками в Vertex AI Studio .

Создайте проект Firebase и подключите ваше приложение к Firebase.

Когда вы будете готовы вызывать API Vertex AI Gemini из своего приложения, следуйте инструкциям в руководстве по началу работы с Firebase AI Logic (Шаг 1), чтобы настроить Firebase и SDK в вашем приложении.

Добавьте зависимость Gradle.

Добавьте следующую зависимость Gradle в модуль вашего приложения:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:34.8.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Инициализируйте генеративную модель.

Для начала создайте экземпляр GenerativeModel и укажите имя модели:

Котлин

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
    .generativeModel("gemini-2.5-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.5-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

В документации Firebase вы можете узнать больше о доступных моделях для использования с API разработчика Gemini. Вы также можете узнать о настройке параметров модели .

Сгенерировать текст

Для генерации текстового ответа вызовите функцию generateContent() с вашим приглашением.

Котлин

suspend fun generateText(model: GenerativeModel) {
    // Note: generateContent() is a suspend function, which integrates well
    // with existing Kotlin code.
    val response = model.generateContent("Write a story about a magic backpack.")
    // ...
}

Java

Content prompt = new Content.Builder()
        .addText("Write a story about a magic backpack.")
        .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        // ...
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Аналогично API для разработчиков Gemini, вы также можете передавать изображения, аудио, видео и файлы вместе с текстовым запросом. Подробнее см. раздел «Взаимодействие с API для разработчиков Gemini из вашего приложения» .

Чтобы узнать больше о Firebase AI Logic SDK, ознакомьтесь с документацией Firebase .