Используйте локальную модель

Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость в разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать модель, которая будет обеспечивать работу функций ИИ в IDE. Модель должна быть локальной, запущенной на вашем персональном компьютере.

Поддержка локальных моделей доступна в релизе Android Studio Narwhal 4 Feature Drop, который можно загрузить из канала canary .

Выберите модель

Локальная модель предлагает альтернативу встроенной в Android Studio поддержке LLM; однако Gemini в Android Studio обычно обеспечивает наилучший опыт работы с ИИ для разработчиков Android благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .

Возможность локальной работы с моделями — отличный вариант, если вам нужно работать в автономном режиме, соблюдать строгие корпоративные правила использования инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.

Настройка поддержки локальной модели

  1. Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или более позднюю версию.

  2. Установите на свой локальный компьютер программу для работы с LLM-программами, например LM Studio или Ollama .

  3. Добавьте поставщика моделей в Android Studio.

    • Перейдите в Настройки > Инструменты > ИИ > Поставщики моделей

    • Настройте поставщика моделей:

    • Выберите значок .

    • Введите описание поставщика модели (обычно это название поставщика модели).

    • Укажите порт, на котором провайдер принимает запросы.

    • Включить модель

    Диалоговое окно настроек Android Studio, отображающее раздел Gemini с возможностью включения автономного режима.
    Рисунок 1. Настройки поставщика модели.
  4. Скачайте и установите выбранную вами модель.

    См. каталоги моделей LM Studio и Ollama . Для наилучшего использования режима агента в Android Studio выберите модель, обученную для работы с инструментами.

    Диалоговое окно настроек Android Studio, отображающее список доступных локальных моделей.
    Рисунок 2. Доступные локальные модели.
  5. Запустите среду вывода.

    Среда вывода предоставляет вашу модель локальным приложениям. Для оптимальной производительности настройте достаточно большое окно длины контекстного токена. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio .

  6. Выберите модель.

    Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться со стандартной модели Gemini на вашу локальную модель, настроенную вами.

    Окно чата Gemini в Android Studio, отображающее средство выбора модели с опциями для Gemini и локальной модели.
    Рисунок 3. Инструмент выбора модели.

После подключения Android Studio к локальной модели вы можете использовать функции чата в IDE. Все взаимодействия полностью обеспечиваются моделью, работающей на вашем локальном компьютере, что предоставляет вам автономную среду разработки ИИ.

Учитывайте ограничения производительности.

Локальные, работающие в автономном режиме модели, как правило, уступают по производительности и интеллекту облачным моделям Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.

Локальные модели обычно не оптимизированы для разработки под Android, и могут возвращать ответы, не учитывающие пользовательский интерфейс Android Studio. Некоторые функции ИИ в Android Studio и сценарии использования в разработке под Android не работают с локальной моделью. Однако функция чата с использованием ИИ в Android Studio, как правило, поддерживается локальными моделями.

Для быстрых и точных ответов по всем аспектам разработки Android-приложений и поддержки всех функций Android Studio, Gemini в Android Studio , работающий на основе моделей Gemini , — это ваше лучшее решение.