- PVSM.RU - https://www.pvsm.ru -
В этой статье я поделюсь опытом быстрого локального развертывания модели DeepSeek — решения, которое позволяет не зависеть от облачных сервисов, сохранять конфиденциальность данных и тонко настраивать модель под собственные задачи.
Вы, возможно, задаетесь вопросам: зачем тратить время на локальное развертывание, если можно воспользоваться официальной версией? Вот несколько причин:
Безопасность. При работе с конфиденциальными данными или коммерческой тайной лучше не передавать их сторонним сервисам.
Гибкость разработки. Локальный запуск дает возможность модифицировать модель, дообучать ее или интегрировать в собственное приложение без дополнительных затрат на API.
Приватность. Полный контроль над системой позволяет обеспечить высокий уровень защиты и конфиденциальности ваших данных.
Официальный сайт: https://ollama.com/ [1]
Установка:
Скачайте установочный пакет ollama и запустите его двойным кликом. После этого нажмите кнопку install — установка пройдет автоматически.
2. Проверка установки:
Откройте командную строку (cmd) и введите: ollama
Если в терминале вы видите подробный вывод, значит, всё прошло успешно. В противном случае стоит проверить шаги установки или обратиться к документации.
3. Поиск и запуск модели:
Перейдите на официальный сайт ollama и введите в поиске ключевое слово: deepseek-r1 [2]
① – название модели.
② – укажите объем памяти, который планируете выделить под модель. Чем модель больше, тем выше качество, но и требования к видеопамяти соответственно возрастают. Для начала рекомендую попробовать версию 1.5b.
③ – после выбора модели вам будет предоставлена команда для запуска. Скопируйте ее и выполните в командной строке: ollama run deepseek-r1:1.5b
При первом запуске модель начнет загрузку, после чего появится сообщение success, и вы сможете вводить запросы в интерактивном режиме.
5. Удаление модели:
Чтобы удалить установленную модель, выполните следующие действия:
Просмотрите список развернутых моделей: ollama list
Выполните команду удаления: ollama rm deepseek-r1:14b
Важно: Убедитесь, что имя модели соответствует актуальной.
Если вам привычнее работать через браузер, воспользуйтесь расширением, которое интегрируется с локальной моделью.
Откройте Google Chrome и перейдите по ссылке: https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo?hl=zh-CN&utm_source=ext_sidebar [3]
2. Убедитесь, что модель DeepSeek уже настроена через ollama (см. способ №1).
3. Нажмите кнопку «Добавить в Chrome».
После установки расширение появится в списке установленных компонентов Chrome. Для его запуска:
Перейдите по адресу: chrome://extensions/.
Используйте удобные горячие клавиши:
Ctrl+Shift+Y — для вызова боковой панели.
Ctrl+Shift+L — для открытия окна чата.
3. Локализация интерфейса:
В настройках расширения Page Assist выберите русский язык для локализации.
В окне чата выберите нужную модель (убедитесь, что модель из ollama запущена).
Теперь можно отправлять запросы и работать с DeepSeek прямо из браузера.
Error: llama runner process has terminated: error loading model: unable to allocate CUDA_Host buffer
Причина: Недостаточно видеопамяти на вашем устройстве.
Попробуйте запустить модель меньшего размера.
Используйте режим CPU при запуске (скорость работы может снизиться):
ollama run deepseek-r1:7b --cpu
Локальное развертывание DeepSeek с помощью ollama или расширения для Chrome — отличный способ обеспечить безопасность, гибкость и приватность работы с большой языковой моделью. Оба метода позволяют быстро настроить систему под ваши нужды без обращения к дорогостоящим API.
Автор: AlexeyRybakov
Источник [4]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/ai/409660
Ссылки в тексте:
[1] https://ollama.com/: https://ollama.com/
[2] deepseek-r1: https://ollama.com/library/deepseek-r1
[3] https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo?hl=zh-CN&utm_source=ext_sidebar: https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo?hl=zh-CN&utm_source=ext_sidebar
[4] Источник: https://habr.com/ru/articles/879076/?utm_campaign=879076&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.