- PVSM.RU - https://www.pvsm.ru -
👋 Привет!
Сегодня хочу поделиться своим опытом работы с локальными LLM (Large Language Models). Это что-то вроде GitHub Copilot, только без подписки, оффлайн и с контролем над своими данными.
У многих часто одни и те же страхи:
«Это слишком сложно».
«Оно съест всю оперативку».
«А вдруг мой код утечёт в облако».
«Да оно будет писать чушь».
На деле, уже сегодня можно запустить модель в 7B параметров на обычном MacBook или ноутбуке с 16 GB RAM.
И получить вполне рабочего помощника для кода, тестов и рефакторинга.
|
|
☁️ Облачные (Copilot, ChatGPT) |
💻 Локальные (Ollama, LM Studio) |
|---|---|---|
|
Простота |
работает сразу |
надо один раз настроить |
|
Конфиденциальность |
код уходит в облако |
всё остаётся у тебя |
|
Стоимость |
подписка (10–20$/мес) |
бесплатно |
|
Мощность |
GPT-5, Claude 4, Gemini |
Qwen, DeepSeek, Mistral |
|
Оффлайн |
❌ |
✅ |
Пример:
qwen2.5-coder:7b-instruct-q4_K_S
qwen2.5 — семейство моделей (Alibaba).
coder — обучена на коде.
7b — размер (7 миллиардов параметров).
instruct — дообучена под инструкции.
q4_K_S — квантовка (сжатие до ~4 bit, влезает даже на слабый ноут).
16 GB RAM, без дискретки → Gemma 3:4B, Mistral 7B (q4).
16–32 GB RAM, GPU 6–8 GB → Qwen2.5-coder:7B, DeepSeek R1:8B.
32–64 GB RAM, GPU ≥12 GB → Qwen2.5 14B, Mistral Medium.
MacBook Pro M3/M4 → можно запускать до 70B моделей.
Главное — брать quant-версии (Q4/Q5), они оптимизированы для домашних машин.
Самый простой способ запустить LLM локально:
curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen2.5-coder:7b-instruct-q4_K_S
ollama run qwen2.5-coder:7b-instruct-q4_K_S
После этого модель доступна на http://localhost:11434 [1] через API.
Теперь сделаем из модели «копилота». Плагин Continue [2] поддерживает JetBrains IDE и Ollama.
Установи плагин Continue в IntelliJ IDEA.
Настрой плагин: укажи локальную модель из Ollama.
Теперь можно:
получать inline-подсказки;
объяснять выделенный код;
рефакторить классы;
генерировать тесты.
Исходный код (с ошибкой):
public int factorial(int n) {
if (n == 0) return 0;
else return n * factorial(n - 1);
}
Запрос:
Исправь ошибку в функции factorial
Результат:
public int factorial(int n) {
if (n == 0 || n == 1) return 1;
else return n * factorial(n - 1);
}
Всё, ошибка исправлена.
Я клянусь не бояться нейросетей, дружить с ними и писать код легко. Да пребудет со мной вайб, а мой ноутбук станет умнее! 🚀
Локальные LLM можно запустить на обычном ноутбуке.
Ollama + Continue = твой личный локальный Copilot.
Никаких подписок и утечек кода.
Вайб-кодинг = минимум стресса, максимум кайфа от работы.
Расписывать длинные простыни тут не буду - ссылка на реп с подробностями ниже: GitHub — vibe-coding [3]
Автор: KvendyZ
Источник [4]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/idea/430251
Ссылки в тексте:
[1] http://localhost:11434: http://localhost:11434
[2] Continue: https://continue.dev/
[3] GitHub — vibe-coding: https://github.com/korolevevgo-hub/vibe_coding
[4] Источник: https://habr.com/ru/articles/945836/?utm_campaign=945836&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.