Machine learning (ML) di perangkat memungkinkan Anda meningkatkan kualitas aplikasi dan menambahkan fitur untuk memproses gambar, suara, dan teks.

Ikuti panduan ini untuk mulai menambahkan fitur machine learning di perangkat ke aplikasi Anda, baik Anda adalah developer berpengalaman maupun pemula.

Dapatkan pengalaman pengguna baru dengan memproses teks, audio, dan video secara real time.
Lakukan inferensi secara lokal tanpa mengirim data pengguna ke cloud.
Tidak perlu koneksi jaringan atau menjalankan layanan di cloud.
Kurangi tagihan cloud Anda dengan menjalankan fitur ML di perangkat.

Siap digunakan atau ML kustom?

ML Kit menyediakan solusi siap produksi untuk masalah umum dan tidak memerlukan keahlian ML. Model adalah bawaan dan dioptimalkan untuk perangkat seluler. ML Kit mudah digunakan dan memungkinkan Anda berfokus pada pengembangan fitur, bukan pelatihan dan pengoptimalan model.
Jika Anda menginginkan lebih banyak kontrol atau untuk men-deploy model ML Anda sendiri, Android menyediakan stack ML kustom yang di-build berdasarkan layanan TensorFlow Lite dan Google Play, yang mencakup hal-hal penting yang diperlukan untuk men-deploy fitur ML berperforma tinggi.

ML Kit SDK: Siap digunakan, untuk alur penggunaan umum

ML Kit menyediakan akses ke model ML yang siap produksi di perangkat. ML Kit API dioptimalkan untuk perangkat seluler dan tidak memerlukan keahlian ML. Contoh ML Kit API meliputi:
Mendeteksi apakah gambar memiliki wajah dan berapa banyak wajah yang ada, secara real time dan di perangkat.
Mengenali teks dalam bahasa China, Devanagari, Jepang, Korea, atau bahasa berkarakter Latin.
Membaca data yang dienkode dalam kode batang untuk format linear dan 2D (kode QR) yang paling populer.
ML Kit menawarkan 10+ API vision dan bahasa, seperti pelabelan gambar, deteksi pose, terjemahan, smart reply, dan lainnya.

Stack ML kustom Android: ML berperforma tinggi

Penting untuk men-deploy fitur ML kustom berperforma tinggi ke dalam aplikasi Android Anda.

TensorFlow Lite untuk runtime ML: Gunakan TensorFlow Lite melalui layanan Google Play, runtime inferensi ML resmi Android, untuk menjalankan inferensi ML berperforma tinggi di aplikasi Anda. Pelajari lebih lanjut

Akselerasi Hardware dengan Delegasi TensorFlow Lite: Gunakan Delegasi TensorFlow Lite yang didistribusikan melalui layanan Google Play untuk menjalankan akselerasi ML pada hardware khusus seperti GPU, NPU, atau DSP. Hal ini dapat membantu Anda memberikan pengalaman pengguna yang lebih lancar dan berlatensi lebih rendah kepada pengguna dengan mengakses kemampuan komputasi lanjutan di perangkat.

Saat ini kami menyediakan dukungan untuk delegasi GPU dan NNAPI dan kami bekerja sama dengan partner untuk memberikan akses ke delegasi kustom mereka melalui layanan Google Play, guna mendukung kasus penggunaan lanjutan. Pelajari lebih lanjut

Diaktifkan oleh layanan Google Play: Gunakan layanan Play untuk mengakses runtime dan delegasi TensorFlow Lite. Tindakan ini akan memastikan penggunaan versi stabil terbaru sekaligus meminimalkan dampak terhadap ukuran biner aplikasi. Pelajari lebih lanjut

Kode
Tinjau contoh kode Android TensorFlow Lite dan uji fitur ML di perangkat Anda.
Tutorial
Download kode contoh dan mulai menggunakan TensorFlow Lite dan Android.
API baru yang memungkinkan Anda memilih konfigurasi akselerasi hardware yang optimal saat runtime, tanpa perlu mengkhawatirkan hardware dan driver perangkat yang mendasarinya.

Berita terbaru

YouTube
YouTube