Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость в разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать модель, которая будет обеспечивать работу функций ИИ в IDE. Модель должна быть локальной, запущенной на вашем персональном компьютере.
Поддержка локальных моделей доступна в релизе Android Studio Narwhal 4 Feature Drop, который можно загрузить из канала canary .
Выберите модель
Локальная модель предлагает альтернативу встроенной в Android Studio поддержке LLM; однако Gemini в Android Studio обычно обеспечивает наилучший опыт работы с ИИ для разработчиков Android благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .
Возможность локальной работы с моделями — отличный вариант, если вам нужно работать в автономном режиме, соблюдать строгие корпоративные правила использования инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.
Настройка поддержки локальной модели
Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или более позднюю версию.
Установите на свой локальный компьютер программу для работы с LLM-программами, например LM Studio или Ollama .
Добавьте поставщика моделей в Android Studio.
Перейдите в Настройки > Инструменты > ИИ > Поставщики моделей
Настройте поставщика моделей:
Выберите значок .
Введите описание поставщика модели (обычно это название поставщика модели).
Укажите порт, на котором провайдер принимает запросы.
Включить модель

Рисунок 1. Настройки поставщика модели. Скачайте и установите выбранную вами модель.
См. каталоги моделей LM Studio и Ollama . Для наилучшего использования режима агента в Android Studio выберите модель, обученную для работы с инструментами.

Рисунок 2. Доступные локальные модели. Запустите среду вывода.
Среда вывода предоставляет вашу модель локальным приложениям. Для оптимальной производительности настройте достаточно большое окно длины контекстного токена. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio .
Выберите модель.
Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться со стандартной модели Gemini на вашу локальную модель, настроенную вами.

Рисунок 3. Инструмент выбора модели.
После подключения Android Studio к локальной модели вы можете использовать функции чата в IDE. Все взаимодействия полностью обеспечиваются моделью, работающей на вашем локальном компьютере, что предоставляет вам автономную среду разработки ИИ.
Учитывайте ограничения производительности.
Локальные, работающие в автономном режиме модели, как правило, уступают по производительности и интеллекту облачным моделям Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.
Локальные модели обычно не оптимизированы для разработки под Android, и могут возвращать ответы, не учитывающие пользовательский интерфейс Android Studio. Некоторые функции ИИ в Android Studio и сценарии использования в разработке под Android не работают с локальной моделью. Однако функция чата с использованием ИИ в Android Studio, как правило, поддерживается локальными моделями.
Для быстрых и точных ответов по всем аспектам разработки Android-приложений и поддержки всех функций Android Studio, Gemini в Android Studio , работающий на основе моделей Gemini , — это ваше лучшее решение.