Воспользуйтесь услугами местного LLM

Большие языковые модели (LLM) различаются по своим возможностям. Чтобы обеспечить вам контроль и гибкость при разработке программного обеспечения с использованием ИИ, Android Studio позволяет выбрать LLM, обеспечивающую работу функций ИИ в IDE. LLM должен быть локальным и работать на вашем компьютере.

Поддержка локального LLM доступна в выпуске Android Studio Narwhal 4 Feature Drop, который можно загрузить с канала Canary .

Выберите степень магистра права

Локальная поддержка LLM предлагает альтернативу встроенной поддержке LLM в Android Studio. Однако Gemini в Android Studio , как правило, обеспечивает разработчикам Android наилучший опыт работы с ИИ благодаря мощным моделям Gemini . Вы можете выбрать одну из множества моделей Gemini для своих задач разработки Android, включая бесплатную модель по умолчанию или модели, доступ к которым осуществляется с помощью платного ключа API Gemini .

Возможность получения степени LLM на местном уровне — отличный вариант, если вам необходимо работать в автономном режиме, необходимо соблюдать строгие правила компании по использованию инструментов ИИ или вы заинтересованы в экспериментах с исследовательскими моделями с открытым исходным кодом.

Настройте локальную поддержку LLM

  1. Загрузите и установите Android Studio Narwhal 4 Feature Drop Canary 2 или выше.

  2. Установите на локальный компьютер поставщика LLM, например LM Studio или Ollama .

  3. Добавьте поставщик модели в Android Studio.

    • Перейдите в Настройки > Инструменты > Gemini > Поставщики моделей.

    • Настройте поставщика модели:

      • Выберите значок
      • Введите описание поставщика модели (обычно это имя поставщика модели)
      • Установите порт, который прослушивает провайдер
      • Включить модель
    Диалоговое окно настроек Android Studio, отображающее раздел Gemini с возможностью включения автономного режима.
    Рисунок 1. Настройки поставщика модели.
  4. Загрузите и установите модель по вашему выбору.

    Ознакомьтесь с каталогами моделей LM Studio и Ollama . Для оптимальной работы с Agent Mode в Android Studio выберите модель, обученную работе с инструментами.

  5. Запустите среду вывода.

    Среда вывода служит для преобразования вашего LLM в локальные приложения. Настройте достаточно большое окно длины токена контекста для оптимальной производительности. Подробные инструкции по запуску и настройке среды см. в документации Ollama или LM Studio .

  6. Выберите модель.

    Откройте Android Studio. Перейдите в окно чата Gemini. Используйте средство выбора модели, чтобы переключиться с модели Gemini по умолчанию на настроенную вами локальную модель.

    Окно чата Android Studio Gemini, в котором отображается средство выбора модели с вариантами для Gemini и локального LLM.
    Рисунок 2. Выбор модели.

После подключения Android Studio к локальной модели вы сможете использовать функции чата в IDE. Всё взаимодействие осуществляется исключительно на основе модели, работающей на вашем локальном компьютере, что обеспечивает автономную среду разработки ИИ.

Учитывайте ограничения производительности

Локальная, автономная модель, как правило, не столь производительна и интеллектуальна, как облачные модели Gemini. Ответы в чате от локальных моделей обычно менее точны и имеют большую задержку по сравнению с облачными моделями.

Локальные модели обычно не оптимизированы для разработки под Android, и локальные модели могут возвращать ответы, не содержащие информации о пользовательском интерфейсе Android Studio. Некоторые функции ИИ в Android Studio и сценарии их использования в разработке Android не работают с локальной моделью. Однако функция чата с ИИ в Android Studio, как правило, поддерживается локальными моделями.

Для быстрых и точных ответов по всем аспектам разработки Android и поддержки всех функций Android Studio лучшим решением будет Gemini в Android Studio , работающий на основе моделей Gemini .

Попробуйте и оставьте отзыв.

Вы можете изучить локальную поддержку LLM, загрузив последнюю предварительную версию Android Studio с канала релизов Canary.

Проверьте известные проблемы, чтобы убедиться, что те, с которыми вы столкнулись, уже задокументированы. Если вы обнаружите новые проблемы, сообщите об ошибках .