Gemini Pro と Gemini Flash のモデル ファミリーは、Android デベロッパーにマルチモーダル AI 機能を提供します。この機能は、クラウドで推論を実行し、Android アプリで画像、音声、動画、テキストの入力を処理します。
- Gemini Pro: Gemini 2.5 Pro は、Google の最先端の思考モデルです。コード、数学、STEM の複雑な問題を推論できるほか、長いコンテキストを使用して大規模なデータセット、コードベース、ドキュメントを分析できます。
- Gemini Flash: Gemini Flash モデルは、優れたスピード、組み込みツールの使用、100 万トークンのコンテキスト ウィンドウなど、次世代の機能と強化された機能を提供します。
Firebase AI Logic
Firebase AI Logic を使用すると、デベロッパーは Google の生成 AI をアプリに安全かつ直接追加して開発を簡素化できます。また、本番環境への移行を成功させるためのツールとプロダクト統合も提供されます。クライアント Android SDK を提供し、クライアント コードから Gemini API を直接統合して呼び出すことで、バックエンドの必要性をなくし、開発を簡素化します。
API プロバイダ
Firebase AI Logic では、Gemini Developer API と Vertex AI Gemini API の Google Gemini API プロバイダを使用できます。
各 API プロバイダの主な違いは次のとおりです。
- お支払い情報の登録なしで、無料枠をたっぷり利用して無料で始めましょう。
- 必要に応じて、Gemini Developer API の有料ティアにアップグレードして、ユーザーベースの拡大に合わせてスケーリングします。
- Google AI Studio を使用して、プロンプトを繰り返しテストし、コード スニペットを取得します。
- モデルにアクセスする場所をきめ細かく制御できます。
- Vertex AI/Google Cloud エコシステムにすでに組み込まれているデベロッパーに最適です。
- Vertex AI Studio を使用して、プロンプトを繰り返しテストし、コード スニペットを取得することもできます。
アプリケーションに適切な API プロバイダを選択することは、ビジネスと技術的な制約、Vertex AI と Google Cloud エコシステムの知識に基づいています。Gemini Pro または Gemini Flash の統合を始めたばかりのほとんどの Android デベロッパーは、Gemini Developer API から始める必要があります。プロバイダの切り替えは、モデル コンストラクタのパラメータを変更することで行います。
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Firebase AI Logic クライアント SDK でサポートされている使用可能な生成 AI モデルの完全なリストをご覧ください。
Firebase サービス
Gemini API へのアクセスに加えて、Firebase AI Logic には、AI 対応機能をアプリに簡単にデプロイして本番環境に対応できるようにするためのサービスが用意されています。
アプリのチェック
Firebase App Check は、承認済みのクライアントのみがリソースにアクセスできるようにすることで、アプリのバックエンドを不正使用から保護します。Google サービス(Firebase や Google Cloud など)やカスタム バックエンドと統合されます。App Check は、Play Integrity を使用して、リクエストの発信元が正規のアプリであり、改ざんされていないデバイスであることを確認します。
Remote Config
アプリにモデル名をハードコードするのではなく、Firebase Remote Config を使用してサーバー制御の変数を使用することをおすすめします。これにより、アプリの新しいバージョンをデプロイしたり、ユーザーに新しいバージョンを選択してもらったりすることなく、アプリで使用するモデルを動的に更新できます。Remote Config を使用して、モデルとプロンプトの A/B テストを行うこともできます。
AI モニタリング
AI 対応機能のパフォーマンスを把握するには、Firebase コンソール内の AI モニタリング ダッシュボードを使用します。Gemini API 呼び出しの使用パターン、パフォーマンス指標、デバッグ情報に関する貴重な分析情報を取得できます。
Firebase AI Logic に移行する
アプリで Vertex AI in Firebase SDK をすでに使用している場合は、移行ガイドをご覧ください。