مدل های زبان بزرگ (LLM) در قابلیت های خود متفاوت هستند. برای اینکه در توسعه نرمافزار به کمک هوش مصنوعی کنترل و انعطافپذیری داشته باشید، Android Studio به شما امکان میدهد LLM را انتخاب کنید که عملکرد هوش مصنوعی IDE را تقویت میکند. LLM باید محلی باشد و روی دستگاه شخصی شما اجرا شود.
پشتیبانی محلی LLM در نسخه Feature Drop Android Studio Narwhal 4 موجود است که می توانید آن را از کانال قناری دانلود کنید .
LLM را انتخاب کنید
یک LLM محلی جایگزینی برای پشتیبانی LLM ساخته شده در Android Studio ارائه می دهد. با این حال، Gemini در Android Studio به دلیل مدل های قدرتمند Gemini، معمولا بهترین تجربه هوش مصنوعی را برای توسعه دهندگان اندروید فراهم می کند. میتوانید از بین انواع مدلهای Gemini برای کارهای توسعه Android خود، از جمله مدل پیشفرض بدون هزینه یا مدلهایی که با کلید Gemini API پولی به آنها دسترسی دارید، انتخاب کنید.
اگر نیاز به کار آفلاین دارید، باید از سیاست های سختگیرانه شرکت در مورد استفاده از ابزار هوش مصنوعی پیروی کنید یا علاقه مند به آزمایش مدل های تحقیق منبع باز هستید، قابلیت LLM محلی یک گزینه عالی است.
پشتیبانی محلی LLM را تنظیم کنید
Android Studio Narwhal 4 Feature Drop Canary 2 یا بالاتر را دانلود و نصب کنید.
یک ارائه دهنده LLM مانند LM Studio یا Olama را روی رایانه محلی خود نصب کنید.
ارائه دهنده مدل را به Android Studio اضافه کنید.
به Settings > Tools > Gemini > Model Providers بروید
ارائه دهنده مدل را پیکربندی کنید:
- نماد انتخاب کنید
- توضیحات ارائه دهنده مدل را وارد کنید (معمولاً نام ارائه دهنده مدل)
- پورتی را که ارائه دهنده به آن گوش می دهد تنظیم کنید
- یک مدل را فعال کنید
شکل 1. تنظیمات ارائه دهنده مدل. مدل دلخواه خود را دانلود و نصب کنید.
کاتالوگ مدل LM Studio و Olama را ببینید. برای بهترین تجربه با Agent Mode در اندروید استودیو، مدلی را انتخاب کنید که برای استفاده از ابزار آموزش دیده است.
محیط استنتاج خود را شروع کنید.
محیط استنتاج LLM شما را به برنامه های محلی ارائه می کند. یک پنجره نشانه با طول زمینه به اندازه کافی بزرگ برای عملکرد بهینه پیکربندی کنید. برای دستورالعمل های دقیق در مورد راه اندازی و پیکربندی محیط خود، به مستندات Ollama یا LM Studio مراجعه کنید.
یک مدل انتخاب کنید.
اندروید استودیو را باز کنید. به پنجره چت Gemini بروید. از انتخابگر مدل برای جابجایی از مدل پیشفرض Gemini به مدل محلی پیکربندیشده خود استفاده کنید.
شکل 2. انتخابگر مدل.
پس از اتصال Android Studio به مدل محلی خود، می توانید از ویژگی های چت در IDE استفاده کنید. تمام فعل و انفعالات به طور کامل توسط مدلی که بر روی دستگاه محلی شما اجرا می شود، ایجاد می شود و یک محیط توسعه هوش مصنوعی مستقل به شما می دهد.
محدودیت های عملکرد را در نظر بگیرید
یک مدل محلی و آفلاین معمولاً به اندازه مدلهای Gemini مبتنی بر ابر کارآمد یا هوشمند نخواهد بود. پاسخهای چت از مدلهای محلی معمولاً دقت کمتری دارند و در مقایسه با مدلهای مبتنی بر ابر، تأخیر بیشتری دارند.
مدلهای محلی معمولاً برای توسعه اندروید بهخوبی تنظیم نمیشوند و مدلهای محلی میتوانند پاسخهایی را برگردانند که درباره رابط کاربری Android Studio اطلاعاتی ندارند. برخی از ویژگیهای اندروید استودیو هوش مصنوعی و موارد استفاده توسعه اندروید با یک مدل محلی غیر کاربردی هستند. با این حال، ویژگی چت هوش مصنوعی در اندروید استودیو به طور کلی توسط مدل های محلی پشتیبانی می شود.
برای پاسخدهی سریع و دقیق به همه جنبههای توسعه Android و پشتیبانی از همه ویژگیهای Android Studio، Gemini در Android Studio ، با مدلهای Gemini ، بهترین راهحل شماست.
آن را امتحان کنید و بازخورد ارائه دهید
میتوانید با دانلود آخرین نسخه پیشنمایش Android Studio از کانال انتشار قناری، پشتیبانی محلی LLM را کشف کنید.
مشکلات شناخته شده را بررسی کنید تا ببینید آیا مشکلاتی که با آن مواجه می شوید قبلاً مستند شده است یا خیر. اگر مشکلات جدیدی پیدا کردید، اشکالات را گزارش کنید .