Рубрика «локальная LLM»

Иногда нужна языковая модель, которая работает без интернета — на борту самолёта, в закрытом корпоративном контуре и т.д. В других случаях интернет есть, но платить за подписку не хочется. В этой статье — пошаговый разбор двух сценариев: локальный запуск через LM Studio и четыре бесплатных облачных агента, которые работают прямо в IDE.

Статья также доступна в формате видео.

Выбор модели

Для примера буду использовать Qwen3.5Читать полностью »

Введение

Свою первую программу я написал в 1988 году на калькуляторе МК52. Очень хотелось программировать и даже максимально странный интерфейс не останавливал. Утекло почти 40 лет. Были Атари, Синклеры, 286 IBM, Интернет, смартофоны. Но все эти технологии входили как-то постепенно, приспосабливаясь и без шока.

AI ворвался в жизнь бывалого ИТшника как пыльным мешком по голове. После первого шока, скормленных Дипсику результатов анализов, идей подарков, профессиональная “чуйка” потребовала придумать новой чудо-технологии боевое применение в том, чем я занимаюсь каждый день на протяжении всей сознательной жизни.

Читать полностью »

OpenAI выпустила GPT-OSS модели (https://huggingface.co/openai/gpt-oss-20b и https://huggingface.co/openai/gpt-oss-120b) , и сообщество немедленно начало экспериментировать. Но реальные бенчмарки производительности найти сложно. В этой статье представлены результаты нашего практического тестирования на арендованном железе через RunPod с использованием Ollama.

Ремарка: Тесты проводились на Ollama для быстрого деплоя. Если будете использовать vLLM, то производительность будет примерно +30%, но он слабо адаптирован под консьюмерские GPU, за исключением RTX 5090.

Что тестировалось:Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js