Mô hình AI của Gemini

Nhóm mô hình Gemini Pro và Gemini Flash cung cấp cho nhà phát triển Android các khả năng AI đa phương thức, chạy suy luận trên đám mây và xử lý dữ liệu đầu vào là hình ảnh, âm thanh, video và văn bản trong các ứng dụng Android.

  • Gemini Pro: Gemini 2.5 Pro là mô hình tư duy tiên tiến nhất của Google, có khả năng lập luận về các vấn đề phức tạp trong mã, toán học và STEM, cũng như phân tích các tập dữ liệu, cơ sở mã và tài liệu lớn bằng ngữ cảnh dài.
  • Gemini Flash: Các mô hình Gemini Flash cung cấp các tính năng thế hệ mới và khả năng cải tiến, bao gồm tốc độ vượt trội, khả năng sử dụng công cụ tích hợp và cửa sổ ngữ cảnh 1 triệu token.

Firebase AI Logic

Firebase AI Logic cho phép nhà phát triển thêm AI tạo sinh của Google vào ứng dụng của họ một cách trực tiếp và an toàn, giúp đơn giản hoá quá trình phát triển, đồng thời cung cấp các công cụ và tính năng tích hợp sản phẩm để đảm bảo quá trình chuẩn bị cho việc phát hành diễn ra thành công. SDK này cung cấp các SDK Android cho ứng dụng để tích hợp và gọi trực tiếp Gemini API từ mã ứng dụng, giúp đơn giản hoá quá trình phát triển bằng cách loại bỏ nhu cầu về một phần phụ trợ.

Nhà cung cấp API

Firebase AI Logic cho phép bạn sử dụng các nhà cung cấp Google Gemini API sau đây: Gemini Developer API và Vertex AI Gemini API.

Hình minh hoạ cho thấy một ứng dụng Android sử dụng Firebase Android SDK để kết nối với Firebase trên đám mây. Từ đó, logic AI tích hợp bằng cách sử dụng 2 đường dẫn: Gemini Developer API hoặc Vertex AI của Nền tảng Google Cloud, cả hai đều tận dụng các mô hình Gemini Pro và Flash.
Hình 1. Cấu trúc tích hợp Firebase AI Logic.

Sau đây là những điểm khác biệt chính đối với từng nhà cung cấp API:

Gemini Developer API:

  • Bắt đầu sử dụng miễn phí với một cấp miễn phí hào phóng mà không cần cung cấp thông tin thanh toán.
  • Bạn có thể nâng cấp lên cấp trả phí của Gemini Developer API để mở rộng quy mô khi cơ sở người dùng của bạn tăng lên.
  • Lặp lại và thử nghiệm với các câu lệnh, thậm chí nhận được các đoạn mã bằng cách sử dụng Google AI Studio.

Vertex AI Gemini API:

  • Kiểm soát chi tiết nơi bạn truy cập vào mô hình.
  • Lý tưởng cho những nhà phát triển đã tham gia vào hệ sinh thái Vertex AI/Google Cloud.
  • Lặp lại và thử nghiệm với các câu lệnh, thậm chí nhận các đoạn mã bằng cách sử dụng Vertex AI Studio.

Việc chọn nhà cung cấp API phù hợp cho ứng dụng của bạn dựa trên các hạn chế về kinh doanh và kỹ thuật, cũng như mức độ quen thuộc của bạn với hệ sinh thái Vertex AI và Google Cloud. Hầu hết nhà phát triển Android mới bắt đầu tích hợp Gemini Pro hoặc Gemini Flash đều nên bắt đầu bằng Gemini Developer API. Bạn có thể chuyển đổi giữa các nhà cung cấp bằng cách thay đổi tham số trong hàm khởi tạo mô hình:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Xem danh sách đầy đủ các mô hình AI tạo sinh hiện có được các SDK Firebase AI Logic hỗ trợ.

Các dịch vụ của Firebase

Ngoài việc truy cập vào Gemini API, Firebase AI Logic còn cung cấp một bộ dịch vụ để đơn giản hoá việc triển khai các tính năng dựa trên AI cho ứng dụng của bạn và chuẩn bị sẵn sàng cho quá trình phát hành công khai:

Kiểm tra ứng dụng

Tính năng Kiểm tra ứng dụng Firebase bảo vệ các phần phụ trợ của ứng dụng khỏi hành vi sai trái bằng cách đảm bảo chỉ những ứng dụng được uỷ quyền mới có thể truy cập vào tài nguyên. Nền tảng này tích hợp với các dịch vụ của Google (bao gồm cả Firebase và Google Cloud) cũng như các phần phụ trợ tuỳ chỉnh. App Check sử dụng Tính toàn vẹn của Play để xác minh rằng các yêu cầu đến từ ứng dụng chính thống và một thiết bị không bị can thiệp.

Cấu hình từ xa

Thay vì mã hoá cứng tên mô hình trong ứng dụng, bạn nên sử dụng một biến do máy chủ kiểm soát bằng Cấu hình từ xa Firebase. Điều này cho phép bạn cập nhật mô hình mà ứng dụng của bạn sử dụng một cách linh hoạt mà không cần triển khai phiên bản mới của ứng dụng hoặc yêu cầu người dùng tải phiên bản mới xuống. Bạn cũng có thể sử dụng Remote Config để thử nghiệm A/B các mô hình và câu lệnh.

Giám sát bằng AI

Để biết hiệu suất của các tính năng dựa trên AI, bạn có thể sử dụng trang tổng quan giám sát AI trong bảng điều khiển của Firebase. Bạn sẽ nhận được thông tin chi tiết có giá trị về thói quen sử dụng, các chỉ số hiệu suất và thông tin gỡ lỗi cho các lệnh gọi Gemini API.

Di chuyển sang Firebase AI Logic

Nếu bạn đang sử dụng Vertex AI trong Firebase SDK trong ứng dụng của mình, hãy đọc hướng dẫn di chuyển.