В этом посте я покажу, как использовать Continue Plugin вместо GitHub Copilot, подключив к нему собственную локальную модель LLM без доступа к интернету. Такой подход обеспечивает максимальную конфиденциальность: ни IDE, ни LM Studio не имеют возможности передавать ваши файлы в облако.
Никакой сети – всё работает только в вашем компьютере.
Что такое Continue и зачем он нужен
|
Плагин |
Функции |
Как работает |
|---|---|---|
|
Continue |
Генерация кода, исправление ошибок, чат‑режим по коду |
Делает запросы к выбранному LLM‑провайдеру (в нашем случае – LM Studio) через HTTP/REST на |
Если вы используете GitHub Copilot, ваш код отправляется в облако.
Continue с локальной моделью никогда не покидает вашу машину.
1) Установка и настройка LM Studio
Устанавливаем LMStudio с офф сайта.

-
Выберите Windows → скачайте
LMStudio-<версия>-win64.exe. -
Запустите установщик, следуйте мастеру:
-
Путь установки – любой удобный (рекомендуется
C:Program FilesLM Studio). -
Тип пользователя – выберите Developer (позволяет смотреть логи и управлять моделью).
-
Если вы случайно пропустили не переживайте эта плашка находится в левом нижнем углу.

Первая модель
-
Откройте LM Studio.
-
В строке поиска введите, например,
Qwen-3.0-Coder-30B. -
Убедитесь, что выбран формат GGUF (быстрее и легче).
-
Нажмите Download – модель скачается в
LM Studiollms<название>. -
В меню слева выберите Models → убедитесь, что галочка стоит рядом с вашей моделью.
Включение локального сервиса
-
Откройте
Settings(иконка шестерёнки в правом нижнем углу). -
Перейдите во вкладку LM Studio → Local Server.
-
Установите флажок Enable local server.
-
Запустите сервер, кликнув Start Server.
-
Порт по умолчанию:
5000.
-
-
Сохраните настройки.
Проверка работы сервера
Откройте браузер и введитеhttp://localhost:5000/v1/models– вы увидите список доступных моделей.
2.1) Через Marketplace
-
В IDE откройте File → Settings (Ctrl+Alt+S).
-
Выберите Plugins → вкладка Marketplace.
-
В строке поиска напишите
Continue. -
Нажмите Install рядом с плагином (требуется VPN).
-
После установки перезапустите IDE.
2.2) Через загруженный .jar (если Marketplace недоступен)
-
Скачайте последнюю версию плагина: .
-
В Settings → Plugins нажмите Install plugin from disk…, выберите скачанный
.jar. -
Перезапустите IDE.
После успешной установки у нас появился дополнительный виджет в который мы переходим находится он в правом верхнем углу.
Добавление модели
-
Кликните по иконке Llama 3.1 8B → откроется диалог Add Chat model.
-
Выберите Provider:
LMStudio. -
В поле Model выберите
Autodetect(Continue сам определит, какие модели доступны через LM Studio). -
Нажмите Connect.

После этого у вас сразу появится окно Config.yaml в котором вы можете устанавливать роли вашего ИИ будет ли он подсказывать вам при написании кода или просто будет в роли чата. Подробнее можно прочитать тут Документация для config.yaml
После того как мы подключились к нашей LMStudio при нажатии на Llama 3.1 8B у нас появился список всех доступных скаченных моделей в LM.
Преимущество заключается в том что при выборе модели и выполнении первого запроса LMStudio сама проинициализирует и загрузит необходимую нам ИИ модель.
Теперь можно проверить работает ли наш ИИ пишем в окне справа текст и ждем ответа.

Отлично теперь можно проверить как отрабатывает ИИ в работе с кодом. Делается это путем команд:
|
Горячая клавиша |
Что делает |
|---|---|
|
|
Отправляет выделенный/текущий фрагмент кода на обработку (получает автодополнение, исправления). |
|
|
Копирует выбранный код в чат‑панель Continue для дальнейшего обсуждения. |
|
|
Открывает контекстное меню с предложениями от модели (если включена функция «Smart Completion»). |
Путем нажатием на кнопки или горячие клавиши вы можете подтверждать замену кода или отклонять предложенные варианты.
Так же присутствует вариант с дополнением кода, добавляется путем дополнения ролей в config.yaml
3) Полная изоляция от интернета
Настройка прокси IntelliJ
-
В Marketplace → Settings → HTTP Proxy
-
Выберите Manual proxy configuration:
-
Host name:
127.0.0.1 -
Port number:
5000(порт, который слушает LM Studio)
-
-
В поле No proxy for укажите ваш локальный IP‑адрес (без префикса https).
-
Нажмите OK.
Теперь все запросы из IntelliJ проходят только через
localhost.
Блокировка LM Studio в Windows Firewall
-
Запустите Брандмауэр Защитника Windows → Дополнительные параметры.
-
В левой панели выберите Правила для исходящего подключения → Создать правило….
-
Укажите Для программы и нажмите Далее.
-
Введите путь к файлу LMStudio.exe (обычно
C:Program FilesLM StudioLMStudio.exe) → Далее. -
Отметьте Блокировать подключение → Далее.
-
Отметьте все три профиля: Доменные, Частные, Общедоступные → Далее.
-
Введите имя (например, "Блокировка исходящих подключений LM Studio") → Готово.
Теперь исходящие соединения для LM Studio будут заблокированы.
Если хотите также запретить входящие подключения, создайте аналогичное правило в разделе Правила для входящего подключения.
Итоги
-
Вы получили полностью офлайн‑среду автодополнения кода.
-
GitHub Copilot больше не нужен; все запросы идут только на
localhost. -
Конфиденциальность гарантирована: ни IDE, ни LM Studio не имеют доступа к внешним серверам.
Если вам нужна ещё более изолированная среда, просто перенесите всю конфигурацию (LM Studio + IntelliJ + Continue) в виртуальную машину или Docker‑контейнер без сети.
Автор: SergeyRoot
