Crea app più intelligenti
Il machine learning on-device ti consente di potenziare la tua app e aggiungere funzionalità per elaborare immagini, audio e testo.
Segui questa guida per iniziare ad aggiungere alla tua app funzionalità di machine learning sul dispositivo, sia che tu sia uno sviluppatore esperto o che tu stia muovendo i primi passi.
Bassa latenza
Conserva i dati sul dispositivo
Funziona offline
Risparmio sui costi
Machine learning pronto per l'uso o personalizzato?
Flussi di utenti comuni con gli SDK ML Kit
ML personalizzato ad alte prestazioni
SDK ML Kit: pronti per l'uso, per i flussi utente più comuni
Riconoscimento facciale
Riconoscimento del testo
Scansione di codici a barre
Altre API ML
Stack ML personalizzato di Android: machine learning ad alte prestazioni
TensorFlow Lite per il runtime ML: utilizza TensorFlow Lite tramite Google Play Services, il runtime ufficiale di inferenza ML di Android, per eseguire l'inferenza ML ad alte prestazioni nella tua app. Scopri di più
Accelerazione hardware con delegati TensorFlow Lite: utilizza i delegati TensorFlow Lite distribuiti tramite Google Play Services per eseguire il machine learning accelerato su hardware specializzato come GPU, NPU o DSP. Questo può aiutarti a offrire agli utenti esperienze più fluide e a bassa latenza, accedendo a funzionalità di calcolo avanzate on-device.
Attualmente forniamo supporto per i delegati GPU e NNAPI e stiamo collaborando con i partner per fornire l'accesso ai propri delegati personalizzati tramite Google Play Services, al fine di supportare i casi d'uso avanzati. Scopri di più
Abilitato da Google Play Services: utilizza Play Services per accedere al runtime e ai delegati TensorFlow Lite. In questo modo puoi utilizzare le versioni stabili più recenti e ridurre al minimo l'impatto sulle dimensioni binarie dell'app. Scopri di più