Vertex AI Gemini API

إذا كنت حديث العهد باستخدام Gemini API، ننصحك باستخدام Gemini Developer API، وهي مزوّد واجهة برمجة التطبيقات الذي ننصح به لمطوّري تطبيقات Android. ولكن إذا كانت لديك متطلبات محددة بشأن الموقع الجغرافي أو كنت تستخدم بيئة Vertex AI أو Google Cloud، يمكنك استخدام Vertex AI Gemini API.

نقل البيانات من Vertex AI في Firebase

إذا سبق لك دمج طرازَي Gemini Flash وPro باستخدام Vertex AI في Firebase، يمكنك الانتقال إلى Vertex AI ومواصلة استخدامه كمزوّد واجهة برمجة تطبيقات. اطّلِع على مستندات Firebase للحصول على دليل نقل بيانات مفصّل.

خطوات البدء:

قبل التفاعل مع واجهة Vertex AI Gemini API مباشرةً من تطبيقك، يمكنك تجربة الطلبات في Vertex AI Studio.

إعداد مشروع على Firebase وربط تطبيقك به

بعد أن تصبح جاهزًا لاستدعاء Vertex AI Gemini API من تطبيقك، اتّبِع التعليمات الواردة في دليل بدء استخدام "الخطوة 1" من Firebase AI Logic لإعداد Firebase وحزمة تطوير البرامج (SDK) في تطبيقك.

إضافة تبعية Gradle

أضِف تبعية Gradle التالية إلى وحدة تطبيقك:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

تهيئة النموذج التوليدي

ابدأ بإنشاء مثيل GenerativeModel وتحديد اسم النموذج:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

في مستندات Firebase، يمكنك الاطّلاع على مزيد من المعلومات حول النماذج المتاحة للاستخدام مع Gemini Developer API. يمكنك أيضًا الاطّلاع على معلومات حول ضبط مَعلمات النموذج.

إنشاء نص

لإنشاء ردّ نصي، اتّصِل بالرقم generateContent() مع طلبك.

Kotlin

// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

كما هو الحال مع Gemini Developer API، يمكنك أيضًا تمرير الصور ومقاطع الصوت والفيديو والملفات مع طلبك النصي (راجِع القسم "التفاعل مع Gemini Developer API من تطبيقك").

لمزيد من المعلومات عن حزمة تطوير البرامج (SDK) لمنصة Firebase AI Logic، يمكنك الاطّلاع على مستندات Firebase.