Il machine learning on-device ti consente di potenziare la tua app e aggiungere funzionalità per elaborare immagini, audio e testo.

Segui questa guida per iniziare ad aggiungere alla tua app funzionalità di machine learning sul dispositivo, sia che tu sia uno sviluppatore esperto o che tu stia muovendo i primi passi.

Sblocca nuove esperienze utente elaborando testo, audio e video in tempo reale.
Eseguire l'inferenza localmente senza inviare i dati utente al cloud.
Non è necessaria una connessione di rete o è necessario eseguire un servizio nel cloud.
Riduci la tua fatturazione cloud eseguendo le funzionalità di ML sul dispositivo.

Machine learning pronto per l'uso o personalizzato?

ML Kit fornisce soluzioni pronte per la produzione per problemi comuni e non richiede alcuna esperienza con il machine learning. I modelli sono integrati e ottimizzati per i dispositivi mobili. Il kit ML è facile da usare e ti consente di concentrarti sullo sviluppo delle funzionalità anziché sull'addestramento e sull'ottimizzazione del modello.
Se desideri più controllo o esegui il deployment dei tuoi modelli ML, Android offre uno stack ML personalizzato basato su TensorFlow Lite e Google Play Services, che copre gli elementi essenziali necessari per il deployment di funzionalità ML ad alte prestazioni.

SDK ML Kit: pronti per l'uso, per i flussi utente più comuni

ML Kit fornisce l'accesso ai modelli ML pronti per la produzione on-device. Le API di ML Kit sono ottimizzate per i dispositivi mobili e non richiedono competenze nell'ambito del machine learning. Esempi di API ML Kit includono:
Rileva se un'immagine ha un volto e quanti ne sono presenti, in tempo reale e sul dispositivo.
Riconoscere il testo in cinese, devanagari, giapponese, coreano o in qualsiasi lingua con caratteri latini.
Leggi i dati codificati in codici a barre per i formati lineari e 2D (codice QR) più diffusi.
ML Kit offre oltre 10 API per la visione e il linguaggio, come etichettatura delle immagini, rilevamento della posa, traduzione, risposte rapide e altro ancora.

Stack ML personalizzato di Android: machine learning ad alte prestazioni

Elementi essenziali per il deployment di funzionalità ML personalizzate ad alte prestazioni nell'app Android.

TensorFlow Lite per il runtime ML: utilizza TensorFlow Lite tramite Google Play Services, il runtime ufficiale di inferenza ML di Android, per eseguire l'inferenza ML ad alte prestazioni nella tua app. Scopri di più

Accelerazione hardware con delegati TensorFlow Lite: utilizza i delegati TensorFlow Lite distribuiti tramite Google Play Services per eseguire il machine learning accelerato su hardware specializzato come GPU, NPU o DSP. Questo può aiutarti a offrire agli utenti esperienze più fluide e a bassa latenza, accedendo a funzionalità di calcolo avanzate on-device.

Attualmente forniamo supporto per i delegati GPU e NNAPI e stiamo collaborando con i partner per fornire l'accesso ai propri delegati personalizzati tramite Google Play Services, al fine di supportare i casi d'uso avanzati. Scopri di più

Abilitato da Google Play Services: utilizza Play Services per accedere al runtime e ai delegati TensorFlow Lite. In questo modo puoi utilizzare le versioni stabili più recenti e ridurre al minimo l'impatto sulle dimensioni binarie dell'app. Scopri di più

Codice
Esamina gli esempi di codice Android di TensorFlow Lite e testa le funzionalità di ML sul tuo dispositivo.
Tutorial
Scarica il codice di esempio e inizia a utilizzare TensorFlow Lite e Android.
Una nuova API che ti consente di scegliere in modo sicuro la configurazione di accelerazione hardware ottimale in fase di esecuzione, senza doverti preoccupare dell'hardware e dei driver del dispositivo sottostante.

Ultime notizie

YouTube
YouTube