راه حل مناسب AI/ML را برای برنامه خود بیابید

این راهنما به شما کمک می‌کند تا راه‌حل‌های هوش مصنوعی مولد و یادگیری ماشینی (AI/ML) گوگل را در برنامه‌های خود ادغام کنید. این راهنما به شما کمک می‌کند تا در میان راه‌حل‌های مختلف هوش مصنوعی و یادگیری ماشینی موجود، پیمایش کنید و راه‌حلی را انتخاب کنید که به بهترین وجه با نیازهای شما مطابقت داشته باشد. هدف این سند، کمک به شما در تعیین اینکه از کدام ابزار استفاده کنید و چرا، با تمرکز بر نیازها و موارد استفاده شماست.

برای کمک به شما در انتخاب مناسب‌ترین راهکار هوش مصنوعی/یادگیری ماشین برای نیازهای خاص شما، این سند شامل یک راهنمای راهکار است . این راهنما با پاسخ به مجموعه‌ای از سؤالات در مورد اهداف و محدودیت‌های پروژه شما، شما را به سمت مناسب‌ترین ابزارها و فناوری‌ها هدایت می‌کند.

این راهنما به شما کمک می‌کند تا بهترین راه‌حل هوش مصنوعی را برای برنامه خود انتخاب کنید. این عوامل را در نظر بگیرید: نوع داده (متن، تصاویر، صدا، ویدیو)، پیچیدگی کار (خلاصه‌سازی ساده برای کارهای پیچیده‌ای که نیاز به دانش تخصصی دارند) و اندازه داده (ورودی‌های کوتاه در مقابل اسناد بزرگ). این به شما کمک می‌کند تا بین استفاده از Gemini Nano در دستگاه خود یا هوش مصنوعی مبتنی بر ابر Firebase (Gemini Flash، Gemini Pro یا Imagen) تصمیم بگیرید.

نمودار جریان تصمیم‌گیری برای موارد استفاده GenAI. معیارها شامل روش (متن، تصویر در مقابل صدا، ویدئو، تولید تصویر)، پیچیدگی (خلاصه‌سازی، بازنویسی در مقابل دانش دامنه) و پنجره زمینه (ورودی/خروجی کوتاه در مقابل اسناد/رسانه‌های گسترده) است که منجر به GenAI روی دستگاه (Gemini Nano) یا منطق هوش مصنوعی Firebase (Gemini Flash، Pro، Imagen) می‌شود.
شکل ۱ : این تصویر، یک راهنمای راه‌حل‌های سطح بالا را نشان می‌دهد که به شما در یافتن راه‌حل مناسب هوش مصنوعی/یادگیری ماشین برای برنامه اندرویدتان کمک می‌کند. برای جزئیات بیشتر در مورد گزینه‌های هوش مصنوعی و یادگیری ماشین، به راهنمای راه‌حل‌ها که در ادامه این سند آمده است، مراجعه کنید.

قدرت استنتاج روی دستگاه را مهار کنید

وقتی ویژگی‌های هوش مصنوعی و یادگیری ماشین را به برنامه اندروید خود اضافه می‌کنید، می‌توانید روش‌های مختلفی را برای ارائه آنها انتخاب کنید - یا روی دستگاه یا با استفاده از فضای ابری.

راهکارهای روی دستگاه مانند Gemini Nano نتایج را بدون هزینه اضافی ارائه می‌دهند، حریم خصوصی کاربر را بهبود می‌بخشند و به دلیل پردازش داده‌های ورودی به صورت محلی، عملکرد آفلاین قابل اعتمادی را فراهم می‌کنند. این مزایا می‌توانند برای موارد استفاده خاص، مانند خلاصه‌سازی پیام، حیاتی باشند و در انتخاب راهکارهای مناسب، اولویت را به استفاده روی دستگاه می‌دهند.

Gemini Nano به شما امکان می‌دهد استنتاج را مستقیماً روی یک دستگاه مبتنی بر اندروید اجرا کنید. اگر با متن، تصاویر یا صدا کار می‌کنید، برای راه‌حل‌های آماده، با APIهای GenAI کیت ML شروع کنید. APIهای GenAI کیت ML توسط Gemini Nano پشتیبانی می‌شوند و برای وظایف خاص روی دستگاه تنظیم شده‌اند. APIهای GenAI کیت ML به دلیل رابط کاربری سطح بالاتر و مقیاس‌پذیری‌شان، مسیری ایده‌آل برای تولید برنامه‌های شما هستند. این APIها به شما امکان می‌دهند موارد استفاده را برای خلاصه‌سازی، ویرایش و بازنویسی متن، تولید توضیحات تصویر و انجام تشخیص گفتار پیاده‌سازی کنید.

برای فراتر رفتن از موارد استفاده اساسی ارائه شده توسط APIهای GenAI کیت یادگیری ماشین، Gemini Nano Experimental Access را در نظر بگیرید. Gemini Nano Experimental Access با Gemini Nano به شما دسترسی مستقیم‌تری به اعلان‌های سفارشی می‌دهد.

برای وظایف سنتی یادگیری ماشین، شما انعطاف‌پذیری لازم برای پیاده‌سازی مدل‌های سفارشی خود را دارید. ما ابزارهای قدرتمندی مانند ML Kit ، MediaPipe ، LiteRT و ویژگی‌های تحویل Google Play را برای ساده‌سازی فرآیند توسعه شما ارائه می‌دهیم.

برای کاربردهایی که به راه‌حل‌های بسیار تخصصی نیاز دارند، می‌توانید از مدل سفارشی خودتان، مانند Gemma یا مدل دیگری که متناسب با مورد استفاده خاص شما طراحی شده است، استفاده کنید. مدل خود را مستقیماً روی دستگاه کاربر با LiteRT اجرا کنید، که معماری‌های مدل از پیش طراحی شده را برای عملکرد بهینه ارائه می‌دهد.

همچنین می‌توانید با استفاده از مدل‌های روی دستگاه و ابری، ساخت یک راهکار ترکیبی را در نظر بگیرید.

برنامه‌های تلفن همراه معمولاً از مدل‌های محلی برای داده‌های متنی کوچک، مانند مکالمات چت یا مقالات وبلاگ، استفاده می‌کنند. با این حال، برای منابع داده بزرگتر (مانند فایل‌های PDF) یا زمانی که دانش بیشتری مورد نیاز است، ممکن است یک راه‌حل مبتنی بر ابر با مدل‌های قدرتمندتر Gemini ضروری باشد.

ادغام مدل‌های پیشرفته Gemini

توسعه‌دهندگان اندروید می‌توانند قابلیت‌های پیشرفته هوش مصنوعی مولد گوگل، از جمله مدل‌های قدرتمند Gemini Pro، Gemini Flash و Imagen را با استفاده از Firebase AI Logic SDK در برنامه‌های خود ادغام کنند. این SDK برای نیازهای داده‌های بزرگتر طراحی شده است و با فراهم کردن دسترسی به این مدل‌های هوش مصنوعی چندوجهی و با عملکرد بالا، قابلیت‌ها و سازگاری گسترده‌ای را ارائه می‌دهد.

با استفاده از کیت توسعه نرم‌افزاری Firebase AI Logic، توسعه‌دهندگان می‌توانند با کمترین تلاش، فراخوانی‌های سمت کلاینت را به مدل‌های هوش مصنوعی گوگل انجام دهند. این مدل‌ها، مانند Gemini Pro و Gemini Flash، استنتاج را در فضای ابری اجرا می‌کنند و به برنامه‌های اندروید این امکان را می‌دهند که انواع ورودی‌ها از جمله تصویر، صدا، ویدیو و متن را پردازش کنند. Gemini Pro در استدلال در مورد مسائل پیچیده و تجزیه و تحلیل داده‌های گسترده عالی عمل می‌کند، در حالی که سری Gemini Flash سرعت برتر و یک پنجره زمینه به اندازه کافی بزرگ برای اکثر وظایف ارائه می‌دهد.

چه زمانی از یادگیری ماشین سنتی استفاده کنیم

اگرچه هوش مصنوعی مولد برای ایجاد و ویرایش محتوایی مانند متن، تصاویر و کد مفید است، بسیاری از مسائل دنیای واقعی با استفاده از تکنیک‌های سنتی یادگیری ماشین (ML) بهتر حل می‌شوند. این روش‌های تثبیت‌شده در وظایفی شامل پیش‌بینی، طبقه‌بندی، تشخیص و درک الگوهای موجود در داده‌های موجود، اغلب با کارایی بیشتر، هزینه محاسباتی کمتر و پیاده‌سازی ساده‌تر نسبت به مدل‌های مولد، برتری دارند.

چارچوب‌های سنتی یادگیری ماشین، راه‌حل‌های قوی، بهینه و اغلب کاربردی‌تری را برای برنامه‌هایی ارائه می‌دهند که بر تجزیه و تحلیل ورودی، شناسایی ویژگی‌ها یا پیش‌بینی بر اساس الگوهای آموخته‌شده تمرکز دارند - به جای تولید خروجی کاملاً جدید. ابزارهایی مانند کیت یادگیری ماشین گوگل، LiteRT و MediaPipe قابلیت‌های قدرتمندی را برای این موارد استفاده غیرتولیدی، به‌ویژه در محیط‌های محاسبات موبایل و لبه، ارائه می‌دهند.

ادغام یادگیری ماشین خود را با ML Kit شروع کنید

کیت یادگیری ماشین (ML Kit) راهکارهای آماده برای تولید و بهینه‌سازی شده برای موبایل را برای وظایف رایج یادگیری ماشین ارائه می‌دهد که نیازی به تخصص قبلی در زمینه یادگیری ماشین ندارد. این SDK موبایل با کاربرد آسان، تخصص یادگیری ماشین گوگل را مستقیماً به برنامه‌های اندروید و iOS شما می‌آورد و به شما این امکان را می‌دهد که به جای آموزش و بهینه‌سازی مدل، بر توسعه ویژگی‌ها تمرکز کنید. کیت یادگیری ماشین، APIهای از پیش ساخته شده و مدل‌های آماده برای استفاده را برای ویژگی‌هایی مانند اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسب‌گذاری تصویر، تشخیص و ردیابی اشیاء، شناسایی زبان و پاسخ هوشمند ارائه می‌دهد.

این مدل‌ها معمولاً برای اجرا روی دستگاه بهینه شده‌اند، که تأخیر کم، عملکرد آفلاین و افزایش حریم خصوصی کاربر را تضمین می‌کند زیرا داده‌ها اغلب روی دستگاه باقی می‌مانند. کیت ML را انتخاب کنید تا به سرعت ویژگی‌های تثبیت‌شده ML را به برنامه تلفن همراه خود اضافه کنید، بدون اینکه نیازی به آموزش مدل‌ها یا نیاز به خروجی تولیدی داشته باشید. این کیت برای بهبود کارآمد برنامه‌ها با قابلیت‌های "هوشمند" با استفاده از مدل‌های بهینه‌شده گوگل یا با استقرار مدل‌های سفارشی TensorFlow Lite ایده‌آل است.

با راهنماها و مستندات جامع ما در سایت توسعه‌دهنده ML Kit شروع کنید.

استقرار سفارشی یادگیری ماشین با LiteRT

برای کنترل بیشتر یا استقرار مدل‌های یادگیری ماشین خودتان، از یک پشته یادگیری ماشین سفارشی ساخته شده بر روی سرویس‌های LiteRT و Google Play استفاده کنید. این پشته ملزومات لازم برای استقرار ویژگی‌های یادگیری ماشین با عملکرد بالا را فراهم می‌کند. LiteRT یک جعبه ابزار بهینه شده برای اجرای کارآمد مدل‌های TensorFlow در دستگاه‌های موبایل، تعبیه‌شده و لبه‌ای با منابع محدود است و به شما این امکان را می‌دهد که مدل‌های بسیار کوچک‌تر و سریع‌تری را اجرا کنید که حافظه، انرژی و فضای ذخیره‌سازی کمتری مصرف می‌کنند. زمان اجرای LiteRT برای شتاب‌دهنده‌های سخت‌افزاری مختلف (GPU، DSP، NPU) در دستگاه‌های لبه‌ای بسیار بهینه شده است و امکان استنتاج با تأخیر کم را فراهم می‌کند.

زمانی که نیاز به استقرار کارآمد مدل‌های یادگیری ماشین آموزش‌دیده (معمولاً برای طبقه‌بندی، رگرسیون یا تشخیص) در دستگاه‌هایی با قدرت محاسباتی یا عمر باتری محدود، مانند تلفن‌های هوشمند، دستگاه‌های اینترنت اشیا یا میکروکنترلرها دارید، LiteRT را انتخاب کنید. این راهکار، راه‌حل ترجیحی برای استقرار مدل‌های پیش‌بینی سفارشی یا استاندارد در لبه شبکه است که در آن سرعت و صرفه‌جویی در منابع از اهمیت بالایی برخوردار است.

درباره استقرار یادگیری ماشین با LiteRT بیشتر بدانید.

با MediaPipe، ادراک بلادرنگ را در برنامه‌های خود ایجاد کنید

مدیاپایپ (MediaPipe) راهکارهای یادگیری ماشینی متن‌باز، چند پلتفرمی و قابل تنظیم را برای رسانه‌های زنده و استریمینگ ارائه می‌دهد. از ابزارهای بهینه و از پیش ساخته شده برای کارهای پیچیده مانند ردیابی دست، تخمین حالت، تشخیص چهره و تشخیص اشیا بهره‌مند شوید که همگی امکان تعامل با کارایی بالا و بلادرنگ را حتی در دستگاه‌های تلفن همراه فراهم می‌کنند.

خطوط لوله مبتنی بر گراف MediaPipe بسیار قابل تنظیم هستند و به شما امکان می‌دهند راه‌حل‌ها را برای برنامه‌های اندروید، iOS، وب، دسکتاپ و برنامه‌های backend تنظیم کنید. MediaPipe را زمانی انتخاب کنید که برنامه شما نیاز به درک و واکنش فوری به داده‌های حسگر زنده، به ویژه جریان‌های ویدیویی، برای موارد استفاده مانند تشخیص حرکت، جلوه‌های AR، ردیابی تناسب اندام یا کنترل آواتار دارد - که همه بر تجزیه و تحلیل و تفسیر ورودی متمرکز هستند.

راهکارها را بررسی کنید و با MediaPipe شروع به ساخت کنید.

یک رویکرد را انتخاب کنید: روی دستگاه یا فضای ابری

هنگام ادغام ویژگی‌های هوش مصنوعی/یادگیری ماشین در برنامه اندروید خود، یک تصمیم اولیه و بسیار مهم این است که آیا پردازش را مستقیماً روی دستگاه کاربر انجام دهید یا در فضای ابری. ابزارهایی مانند ML Kit، Gemini Nano و TensorFlow Lite قابلیت‌های روی دستگاه را فعال می‌کنند، در حالی که APIهای ابری Gemini با Firebase AI Logic می‌توانند پردازش قدرتمند مبتنی بر فضای ابری را ارائه دهند. انتخاب صحیح به عوامل مختلفی بستگی دارد که مختص مورد استفاده شما و نیازهای کاربر است.

برای هدایت تصمیم خود، جنبه‌های زیر را در نظر بگیرید:

  • اتصال و عملکرد آفلاین : اگر برنامه شما نیاز به عملکرد قابل اعتماد بدون اتصال به اینترنت دارد، راهکارهای روی دستگاه مانند Gemini Nano ایده‌آل هستند. پردازش مبتنی بر ابر، ذاتاً نیاز به دسترسی به شبکه دارد.
  • حریم خصوصی داده‌ها : برای مواردی که داده‌های کاربر به دلایل حفظ حریم خصوصی باید روی دستگاه باقی بمانند، پردازش روی دستگاه با نگهداری اطلاعات حساس به صورت محلی، مزیت متمایزی ارائه می‌دهد.
  • قابلیت‌های مدل و پیچیدگی وظیفه : مدل‌های مبتنی بر ابر اغلب به طور قابل توجهی بزرگتر، قدرتمندتر و با سرعت بیشتری به‌روزرسانی می‌شوند، که آنها را برای وظایف هوش مصنوعی بسیار پیچیده یا هنگام پردازش ورودی‌های بزرگتر که در آن کیفیت خروجی بالاتر و قابلیت‌های گسترده‌تر اهمیت دارند، مناسب می‌کند. وظایف ساده‌تر ممکن است توسط مدل‌های روی دستگاه به خوبی انجام شوند.
  • ملاحظات هزینه : APIهای ابری معمولاً شامل قیمت‌گذاری مبتنی بر استفاده هستند، به این معنی که هزینه‌ها می‌توانند با تعداد استنتاج‌ها یا میزان داده‌های پردازش شده، مقیاس‌بندی شوند. استنتاج روی دستگاه، اگرچه عموماً عاری از هزینه‌های مستقیم به ازای هر استفاده است، اما هزینه‌های توسعه را به همراه دارد و می‌تواند بر منابع دستگاه مانند عمر باتری و عملکرد کلی تأثیر بگذارد.
  • منابع دستگاه : مدل‌های روی دستگاه، فضای ذخیره‌سازی دستگاه کاربر را اشغال می‌کنند. همچنین مهم است که از سازگاری مدل‌های خاص روی دستگاه، مانند Gemini Nano، با دستگاه مورد نظر خود آگاه باشید تا مطمئن شوید مخاطب هدف شما می‌تواند از ویژگی‌ها استفاده کند.
  • تنظیم دقیق و سفارشی‌سازی : اگر به توانایی تنظیم دقیق مدل‌ها برای مورد استفاده خاص خود نیاز دارید، راه‌حل‌های مبتنی بر ابر عموماً انعطاف‌پذیری بیشتر و گزینه‌های گسترده‌تری برای سفارشی‌سازی ارائه می‌دهند.
  • سازگاری بین پلتفرمی : اگر ویژگی‌های هوش مصنوعی سازگار در پلتفرم‌های مختلف، از جمله iOS، بسیار مهم هستند، توجه داشته باشید که برخی از راه‌حل‌های روی دستگاه، مانند Gemini Nano، ممکن است هنوز در همه سیستم عامل‌ها در دسترس نباشند.

با بررسی دقیق الزامات مورد استفاده و گزینه‌های موجود، می‌توانید راه‌حل ایده‌آل هوش مصنوعی/یادگیری ماشین را برای بهبود برنامه اندروید خود و ارائه تجربیات هوشمند و شخصی‌سازی‌شده به کاربران خود پیدا کنید.


راهنمای راهکارهای هوش مصنوعی/یادگیری ماشین

این راهنمای راه‌حل‌ها می‌تواند به شما در شناسایی ابزارهای توسعه‌دهنده مناسب برای ادغام فناوری‌های هوش مصنوعی/یادگیری ماشین در پروژه‌های اندرویدتان کمک کند.

هدف اصلی ویژگی هوش مصنوعی چیست؟

  • الف) تولید محتوای جدید (متن، توضیحات تصویر) یا انجام پردازش متن ساده (خلاصه‌سازی، ویرایش یا بازنویسی متن)؟ → به Generative AI بروید
  • ب) تحلیل داده‌ها/ورودی‌های موجود برای پیش‌بینی، طبقه‌بندی، تشخیص، درک الگوها یا پردازش جریان‌های بلادرنگ (مانند ویدئو/صوت)؟ → به یادگیری ماشین سنتی و ادراک بروید

یادگیری ماشین سنتی و ادراک

شما باید ورودی را تجزیه و تحلیل کنید، ویژگی‌ها را شناسایی کنید یا بر اساس الگوهای آموخته شده پیش‌بینی‌هایی انجام دهید، نه اینکه خروجی کاملاً جدیدی تولید کنید.

چه وظیفه خاصی را انجام می‌دهید؟

  • الف) آیا به ادغام سریع ویژگی‌های رایج و از پیش ساخته شده‌ی یادگیری ماشین موبایل نیاز دارید؟ (مثلاً اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسب‌گذاری تصویر، تشخیص و ردیابی اشیاء، شناسه زبان، پاسخ هوشمند اولیه)
    • → استفاده از: کیت ML (API های سنتی)
    • چرا : ساده‌ترین ادغام برای وظایف یادگیری ماشینی موبایل، که اغلب برای استفاده روی دستگاه بهینه شده است (تأخیر کم، آفلاین، حریم خصوصی).
  • ب) آیا برای انجام وظایف ادراکی نیاز به پردازش داده‌های جریانی بلادرنگ (مانند ویدئو یا صدا) دارید؟ (مثلاً ردیابی دست، تخمین حالت، شبکه چهره، تشخیص و قطعه‌بندی بلادرنگ اشیا در ویدئو)
    • → استفاده: مدیاپایپ
    • چرا : چارچوبی تخصصی برای خطوط لوله ادراک با کارایی بالا و بلادرنگ در پلتفرم‌های مختلف.
  • ج) آیا نیاز دارید مدل یادگیری ماشین آموزش‌دیده سفارشی خود را (مثلاً برای طبقه‌بندی، رگرسیون، تشخیص) به طور کارآمد روی دستگاه اجرا کنید و عملکرد و استفاده کم از منابع را در اولویت قرار دهید؟
    • → استفاده از: LiteRT (زمان اجرای TensorFlow Lite)
    • دلیل : زمان اجرای بهینه برای استقرار کارآمد مدل‌های سفارشی در دستگاه‌های موبایل و لبه (اندازه کوچک، استنتاج سریع، شتاب سخت‌افزاری).
  • د) آیا نیاز دارید مدل یادگیری ماشین سفارشی خودتان را برای یک کار خاص آموزش دهید ؟
    • → استفاده: LiteRT (TensorFlow Lite Runtime) + آموزش مدل سفارشی
    • چرا : ابزارهایی را برای آموزش و استقرار مدل‌های سفارشی، بهینه شده برای دستگاه‌های تلفن همراه و لبه، فراهم می‌کند.
  • ه) به طبقه‌بندی پیشرفته محتوا، تحلیل احساسات یا ترجمه چندین زبان با ظرافت بالا نیاز دارید؟
    • در نظر بگیرید که آیا مدل‌های سنتی یادگیری ماشین (که به طور بالقوه با استفاده از LiteRT یا فضای ابری مستقر می‌شوند) مناسب هستند، یا اینکه NLU پیشرفته به مدل‌های مولد نیاز دارد (به شروع برگردید، A را انتخاب کنید). برای طبقه‌بندی، احساسات یا ترجمه مبتنی بر فضای ابری:
    • → کاربرد: راهکارهای مبتنی بر ابر (مثلاً API زبان طبیعی گوگل کلود ، API ترجمه گوگل کلود ، که احتمالاً با استفاده از یک backend سفارشی یا Vertex AI قابل دسترسی هستند) . (اگر آفلاین یا حریم خصوصی مهم باشد، اولویت کمتری نسبت به گزینه‌های روی دستگاه دارند).
    • چرا : راهکارهای ابری مدل‌های قدرتمند و پشتیبانی گسترده از زبان‌ها را ارائه می‌دهند، اما نیاز به اتصال دارند و ممکن است هزینه‌هایی را متحمل شوند.

هوش مصنوعی مولد

شما نیاز به ایجاد محتوای جدید، خلاصه کردن، بازنویسی یا انجام وظایف پیچیده درک یا تعامل دارید.

آیا نیاز دارید که هوش مصنوعی به صورت آفلاین کار کند، به حداکثر حریم خصوصی داده‌ها نیاز دارید (داده‌های کاربر روی دستگاه نگهداری شود) یا می‌خواهید از هزینه‌های استنتاج ابری اجتناب کنید؟

  • الف) بله ، آفلاین، حداکثر حریم خصوصی یا بدون هزینه ابری بسیار مهم است.
  • ب) خیر ، اتصال موجود و قابل قبول است، قابلیت‌های ابری و مقیاس‌پذیری مهم‌تر هستند، یا ویژگی‌های خاصی به فضای ابری نیاز دارند.

هوش مصنوعی مولد روی دستگاه (با استفاده از Gemini Nano)

هشدارها : نیاز به دستگاه‌های اندروید سازگار، پشتیبانی محدود از iOS، محدودیت‌های توکن خاص (۱۰۲۴ اعلان، ۴۰۹۶ متن)، مدل‌ها نسبت به مدل‌های ابری قدرت کمتری دارند.

آیا مورد استفاده شما به طور خاص با وظایف ساده ارائه شده توسط API های ML Kit GenAI (خلاصه کردن متن، ویرایش متن، بازنویسی متن، تولید توضیحات تصویر یا انجام تشخیص گفتار) مطابقت دارد؟ و آیا محدودیت توکن کافی است؟

  • الف) بله :
    • → استفاده: رابط‌های برنامه‌نویسی کاربردی GenAI کیت ML (ارائه شده توسط Gemini Nano)
    • چرا : ساده‌ترین راه برای ادغام وظایف تولیدی خاص و رایج روی دستگاه، راهکاری با بالاترین اولویت روی دستگاه.
  • ب) خیر (شما به دستورالعمل‌ها یا وظایف انعطاف‌پذیرتری فراتر از APIهای خاص ML Kit GenAI نیاز دارید، اما همچنان می‌خواهید اجرای روی دستگاه در چارچوب قابلیت‌های Nano باشد):
    • → استفاده: دسترسی آزمایشی جمینی نانو
    • چرا : قابلیت‌های اعلان باز را روی دستگاه برای موارد استفاده فراتر از APIهای ساختاریافته ML Kit GenAI، با رعایت محدودیت‌های نانو، فراهم می‌کند.

هوش مصنوعی مولد ابری

از مدل‌های قدرتمندتری استفاده می‌کند، به اتصال نیاز دارد، معمولاً شامل هزینه‌های استنتاج می‌شود، دسترسی به دستگاه‌های وسیع‌تر و سازگاری آسان‌تر بین پلتفرمی (اندروید و iOS) را ارائه می‌دهد.

اولویت شما چیست: سهولت ادغام در Firebase یا حداکثر انعطاف‌پذیری/کنترل؟

  • الف) ادغام آسان‌تر، تجربه API مدیریت‌شده را ترجیح می‌دهید و احتمالاً از Firebase استفاده می‌کنید؟
  • ب) به حداکثر انعطاف‌پذیری، دسترسی به وسیع‌ترین طیف مدل‌ها (از جمله مدل‌های شخص ثالث/سفارشی)، تنظیم دقیق پیشرفته نیاز دارید و مایل به مدیریت یکپارچه‌سازی backend خود (پیچیده‌تر) هستید؟
    • → استفاده: رابط برنامه‌نویسی نرم‌افزار Gemini با یک Backend ابری سفارشی (با استفاده از پلتفرم ابری گوگل)
    • چرا : بیشترین کنترل، وسیع‌ترین دسترسی به مدل و گزینه‌های آموزش سفارشی را ارائه می‌دهد اما به تلاش قابل توجهی برای توسعه backend نیاز دارد. مناسب برای نیازهای پیچیده، در مقیاس بزرگ یا بسیار سفارشی.

( شما Firebase AI Logic SDK را انتخاب کردید) به چه نوع وظیفه مولد و پروفایل عملکردی نیاز دارید؟