للوصول إلى نموذجي Gemini Pro وFlash، ننصح مطوّري تطبيقات Android باستخدام Gemini Developer API من خلال Firebase AI Logic. يتيح لك هذا المنتج بدء الاستخدام بدون الحاجة إلى بطاقة ائتمان، كما يوفّر مستوى مجانيًا سخيًا. بعد إثبات صحة عملية الدمج مع قاعدة مستخدمين صغيرة، يمكنك توسيع نطاقها من خلال التبديل إلى الفئة المدفوعة.
خطوات البدء:
قبل التفاعل مع Gemini API مباشرةً من تطبيقك، عليك إجراء بعض الخطوات أولاً، بما في ذلك التعرّف على كيفية تقديم الطلبات وإعداد Firebase وتطبيقك لاستخدام حزمة SDK.
تجربة الطلبات
يمكن أن يساعدك تجربة الطلبات في العثور على أفضل صياغة ومحتوى وتنسيق لتطبيق Android. Google AI Studio هو بيئة تطوير متكاملة يمكنك استخدامها لإنشاء نماذج أولية وتصميم طلبات لحالات استخدام تطبيقك.
إنّ إنشاء الطلب المناسب لحالة الاستخدام هو فن أكثر من كونه علمًا، ما يجعل التجربة أمرًا بالغ الأهمية. يمكنك الاطّلاع على مزيد من المعلومات حول طلب الموافقة في مستندات Firebase.
بعد أن تصبح راضيًا عن الطلب، انقر على الزر "<>" للحصول على مقتطفات من الرمز البرمجي يمكنك إضافتها إلى الرمز البرمجي.
إعداد مشروع على Firebase وربط تطبيقك به
بعد أن تصبح جاهزًا لاستدعاء واجهة برمجة التطبيقات من تطبيقك، اتّبِع التعليمات الواردة في "الخطوة 1" من دليل بدء استخدام Firebase AI Logic لإعداد Firebase وحزمة تطوير البرامج (SDK) في تطبيقك.
إضافة تبعية Gradle
أضِف تبعية Gradle التالية إلى وحدة تطبيقك:
Kotlin
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.1.0"))
// Add the dependency for the Firebase AI Logic library When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Java
dependencies {
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:34.1.0"))
// Add the dependency for the Firebase AI Logic library When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
// Required for one-shot operations (to use `ListenableFuture` from Guava
// Android)
implementation("com.google.guava:guava:31.0.1-android")
// Required for streaming operations (to use `Publisher` from Reactive
// Streams)
implementation("org.reactivestreams:reactive-streams:1.0.4")
}
تهيئة النموذج التوليدي
ابدأ بإنشاء مثيل GenerativeModel
وتحديد اسم النموذج:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
مزيد من المعلومات حول النماذج المتاحة للاستخدام مع Gemini Developer API يمكنك أيضًا الاطّلاع على مزيد من المعلومات عن ضبط مَعلمات النموذج.
التفاعل مع Gemini Developer API من تطبيقك
بعد إعداد Firebase وتطبيقك لاستخدام حزمة تطوير البرامج (SDK)، يمكنك الآن التفاعل مع Gemini Developer API من تطبيقك.
إنشاء نص
لإنشاء ردّ نصي، اتّصِل بالرقم generateContent()
مع طلبك.
Kotlin
scope.launch {
val response = model.generateContent("Write a story about a magic backpack.")
}
Java
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
إنشاء نص من الصور والوسائط الأخرى
يمكنك أيضًا إنشاء نص من طلب يتضمّن نصًا بالإضافة إلى صور أو وسائط أخرى. عند الاتصال بـ "generateContent()
"، يمكنك تمرير الوسائط كبيانات مضمّنة.
على سبيل المثال، لاستخدام صورة نقطية، استخدِم نوع المحتوى image
:
Kotlin
scope.launch {
val response = model.generateContent(
content {
image(bitmap)
text("what is the object in the picture?")
}
)
}
Java
Content content = new Content.Builder()
.addImage(bitmap)
.addText("what is the object in the picture?")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
لتمرير ملف صوتي، استخدِم نوع المحتوى inlineData
:
Kotlin
val contentResolver = applicationContext.contentResolver
val inputStream = contentResolver.openInputStream(audioUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
val prompt = content {
inlineData(bytes, "audio/mpeg") // Specify the appropriate audio MIME type
text("Transcribe this audio recording.")
}
val response = model.generateContent(prompt)
}
}
Java
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(audioUri)) {
File audioFile = new File(new URI(audioUri.toString()));
int audioSize = (int) audioFile.length();
byte audioBytes = new byte[audioSize];
if (stream != null) {
stream.read(audioBytes, 0, audioBytes.length);
stream.close();
// Provide a prompt that includes audio specified earlier and text
Content prompt = new Content.Builder()
.addInlineData(audioBytes, "audio/mpeg") // Specify the appropriate audio MIME type
.addText("Transcribe what's said in this audio recording.")
.build();
// To generate text output, call `generateContent` with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String text = result.getText();
Log.d(TAG, (text == null) ? "" : text);
}
@Override
public void onFailure(Throwable t) {
Log.e(TAG, "Failed to generate a response", t);
}
}, executor);
} else {
Log.e(TAG, "Error getting input stream for file.");
// Handle the error appropriately
}
} catch (IOException e) {
Log.e(TAG, "Failed to read the audio file", e);
} catch (URISyntaxException e) {
Log.e(TAG, "Invalid audio file", e);
}
ولتقديم ملف فيديو، واصِل استخدام نوع المحتوى inlineData
:
Kotlin
val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
val prompt = content {
inlineData(bytes, "video/mp4") // Specify the appropriate video MIME type
text("Describe the content of this video")
}
val response = model.generateContent(prompt)
}
}
Java
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(videoUri)) {
File videoFile = new File(new URI(videoUri.toString()));
int videoSize = (int) videoFile.length();
byte[] videoBytes = new byte[videoSize];
if (stream != null) {
stream.read(videoBytes, 0, videoBytes.length);
stream.close();
// Provide a prompt that includes video specified earlier and text
Content prompt = new Content.Builder()
.addInlineData(videoBytes, "video/mp4")
.addText("Describe the content of this video")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
}
} catch (IOException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
وبالمثل، يمكنك أيضًا تمرير مستندات PDF (application/pdf
) ومستندات نصية عادية (text/plain
) من خلال تمرير نوع MIME الخاص بكل منها كمعلَمة.
محادثة متعدّدة الأدوار
يمكنك أيضًا إتاحة المحادثات المتعددة الأدوار. ابدأ محادثة باستخدام الدالة
startChat()
. يمكنك اختياريًا تزويد النموذج بسجلّ الرسائل. بعد ذلك، استدعِ الدالة sendMessage()
لإرسال رسائل المحادثة.
Kotlin
val chat = model.startChat(
history = listOf(
content(role = "user") { text("Hello, I have 2 dogs in my house.") },
content(role = "model") { text("Great to meet you. What would you like to know?") }
)
)
scope.launch {
val response = chat.sendMessage("How many paws are in my house?")
}
Java
Content.Builder userContentBuilder = new Content.Builder();
userContentBuilder.setRole("user");
userContentBuilder.addText("Hello, I have 2 dogs in my house.");
Content userContent = userContentBuilder.build();
Content.Builder modelContentBuilder = new Content.Builder();
modelContentBuilder.setRole("model");
modelContentBuilder.addText("Great to meet you. What would you like to know?");
Content modelContent = userContentBuilder.build();
List<Content> history = Arrays.asList(userContent, modelContent);
// Initialize the chat
ChatFutures chat = model.startChat(history);
// Create a new user message
Content.Builder messageBuilder = new Content.Builder();
messageBuilder.setRole("user");
messageBuilder.addText("How many paws are in my house?");
Content message = messageBuilder.build();
// Send the message
ListenableFuture<GenerateContentResponse> response = chat.sendMessage(message);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
يمكنك الاطّلاع على مستندات Firebase لمزيد من التفاصيل.
الخطوات التالية
- راجِع تطبيق العيّنة الخاص بميزة "البدء السريع" في Firebase على Android وكتالوج عيّنات الذكاء الاصطناعي على Android على GitHub.
- جهِّز تطبيقك لإطلاقه، بما في ذلك إعداد ميزة "فحص التطبيقات من Firebase" لحماية Gemini API من إساءة الاستخدام من قِبل العملاء غير المصرّح لهم.
- يمكنك الاطّلاع على مزيد من المعلومات حول منطق الذكاء الاصطناعي في Firebase في مستندات Firebase.