裝置端機器學習 (ML) 可讓您強化應用程式,並新增處理圖片、音訊和文字的功能。

無論您是經驗豐富的開發人員還是新手,都能在應用程式中加入裝置端機器學習功能。

即時處理文字、音訊和影片,創造全新的使用者體驗。
在本機執行推論,而不將使用者資料傳送至雲端。
無須連上網路,也不必在雲端執行服務。
在裝置端執行機器學習功能,藉此減少雲端費用。

使用 Gemini 強化 Android 應用程式

Gemini API (即將推出)
全新的 Gemini API 可讓您在 Google 的伺服器執行模型推論。您可以透過後端呼叫 API,也可以將新的 Gemini Android SDK 直接整合到 Android 應用程式中。
Android AICore
從 Android 14 開始,Android AICore 是一項新的系統功能,可讓你直接在裝置上執行基礎模型,例如 Gemini Nano。

現成可用或自訂機器學習功能?

ML Kit 為常見問題提供可用於實際工作環境的解決方案,無需機器學習專業知識。模型內建且經過最佳化調整,適合行動裝置使用。ML Kit 易於使用,可讓您專心開發功能,不必將模型訓練和最佳化工作交給我們。
如果您希望進一步控管或部署自己的機器學習模型,Android 提供以 TensorFlow Lite 和 Google Play 服務為基礎的自訂機器學習堆疊,其中涵蓋部署高效能機器學習功能所需的必要項目。

ML Kit SDK:可立即使用,適用於常見使用者流程

ML Kit 可讓您在裝置端存取可用於實際工作環境的機器學習模型。ML Kit API 最適合行動裝置,因此不需要機器學習專業知識。ML Kit API 範例包括:
偵測相片是否有臉孔,以及在當中即時和裝置上偵測到的臉孔數量。
辨識中文、梵文、日文、韓文或任何拉丁字元的文字。
針對最熱門的線性和 2D (QR 代碼) 格式讀取以條碼編碼的資料。
ML Kit 提供超過 10 種視覺和語言 API,例如圖片標籤、姿勢偵測、翻譯、智慧回覆等。

Android 的自訂機器學習堆疊:高效能機器學習

將高效能自訂機器學習功能部署至 Android 應用程式的基本要素。

TensorFlow Lite for ML Runtime:透過 Google Play 服務 (Android 的官方機器學習推論執行階段) 使用 TensorFlow Lite,以便在應用程式中執行高效能機器學習推論。 瞭解詳情

使用 TensorFlow Lite 委任的硬體加速:使用透過 Google Play 服務發行的 TensorFlow Lite 委派,在 GPU、NPU 或 DSP 等特殊硬體上執行加速機器學習。這有助於為使用者提供進階的裝置運算功能,讓您享有更流暢且低延遲的使用者體驗。

我們目前為 GPU 和 NNAPI 委派提供支援服務,並與合作夥伴合作透過 Google Play 服務提供自訂委派存取權,以支援進階用途。瞭解詳情

由 Google Play 服務啟用:使用 Play 服務存取 TensorFlow Lite 執行階段和委派。這樣可確保使用最新的穩定版本,同時盡可能減少對應用程式二進位檔大小的影響。瞭解詳情

精選
查看 TensorFlow Lite Android 程式碼範例,並在裝置上測試機器學習功能。
精選
下載程式碼範例,開始使用 TensorFlow Lite 和 Android。
這個新的 API 可讓您在執行階段安全地選取最佳硬體加速設定,不必擔心基礎裝置硬體和驅動程式。

最新消息

YouTube
YouTube