Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость при разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать LLM, обеспечивающую работу функций ИИ в IDE. LLM должен быть локальным и работать на вашем компьютере.
Поддержка локального LLM доступна в выпуске Android Studio Narwhal 4 Feature Drop, который можно загрузить с канала Canary .
Выберите степень магистра права
Локальная поддержка LLM предлагает альтернативу встроенной поддержке LLM в Android Studio. Однако Gemini в Android Studio , как правило, обеспечивает разработчикам Android наилучший опыт работы с ИИ благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .
Возможность получения степени LLM на местном уровне — отличный вариант, если вам необходимо работать в автономном режиме, необходимо соблюдать строгие правила компании по использованию инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.
Настройте локальную поддержку LLM
Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или выше.
Установите на локальный компьютер поставщика LLM, например LM Studio или Ollama .
Добавьте поставщик модели в Android Studio.
Перейдите в Настройки > Инструменты > Gemini > Поставщики моделей.
Настройте поставщика модели:
- Выберите значок
- Введите описание поставщика модели (обычно это имя поставщика модели)
- Установите порт, который прослушивает провайдер
- Включить модель
Рисунок 1. Настройки поставщика модели. Загрузите и установите модель по вашему выбору.
Ознакомьтесь с каталогами моделей LM Studio и Ollama . Для оптимальной работы с Agent Mode в Android Studio выберите модель, обученную работе с инструментами.
Запустите среду вывода.
Среда вывода служит для преобразования вашего LLM в локальные приложения. Настройте достаточно большое окно длины токена контекста для оптимальной производительности. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio .
Выберите модель.
Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться с модели Gemini по умолчанию на настроенную вами локальную модель.
Рисунок 2. Выбор модели.
После подключения Android Studio к локальной модели вы сможете использовать функции чата в IDE. Всё взаимодействие осуществляется исключительно на основе модели, работающей на вашем локальном компьютере, что обеспечивает автономную среду разработки ИИ.
Учитывайте ограничения производительности
Локальная, автономная модель, как правило, не столь производительна и интеллектуальна, как облачные модели Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.
Локальные модели обычно не оптимизированы для разработки под Android, и локальные модели могут возвращать ответы, не содержащие информации о пользовательском интерфейсе Android Studio. Некоторые функции ИИ в Android Studio и сценарии их использования в разработке Android не работают с локальной моделью. Однако функция чата с ИИ в Android Studio, как правило, поддерживается локальными моделями.
Для быстрых и точных ответов по всем аспектам разработки Android и поддержки всех функций Android Studio лучшим решением будет Gemini в Android Studio , работающий на основе моделей Gemini .
Попробуйте и оставьте отзыв.
Вы можете изучить локальную поддержку LLM, загрузив последнюю предварительную версию Android Studio с канала релизов Canary.
Проверьте известные проблемы, чтобы убедиться, что те, с которыми вы столкнулись, уже задокументированы. Если вы обнаружите новые проблемы, сообщите об ошибках .