- PVSM.RU - https://www.pvsm.ru -
Недавно вышла коллекция моделей от Alibaba - Qwen3-VL:
https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe [1]
В своём блоге они написали [2] (и показали) что могут модели этой коллекции:
LLM - то есть модель отвечает на вопросы. Поддерживаются 32 языка
Модель "видит":
можно прислать картинку и спросить про неё
можно нарисовать страницу карандашом, прислать фото и попросить написать HTML страницу с интерфейсом, как на картинке
можно отправить сканированные или сфотографированные страницы и попросить распознать текст, или попросить содержание в формате markdown.
понимает математические формулы, и может в ответ объяснить математику
Контекст - 256k
Есть модель, которая использует "рассуждения", и есть - без "рассуждений"
Последние несколько недель моей "рабочей" моделью была GPT-OSS-120B [3] (196GB) Я использовал 4х-битный квант - MXFP4 [4] (63.4GB). Сейчас я перешёл на Qwen3-VL-30B-A3B-Thinking-FP8 (полная модель - 62.2GB, 8-битный квант - 32.3GB). По очкам GPT-OSS-120B - впереди:
Разница по очками небольшая в пользу GPT-OSS-120B, но только Qwen3-VL-30B может работать с изображениями на входе. Да и цензурирована GPT-OSS сильнее, хотя это и субъективно.
По скорости генерации токенов эти две модели более-менее одинаковы.
Здесь далее - туториал по запуску вот этой модели (8-битный квант):
https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Thinking-FP8 [5]
Я думаю, что самый популярные движки для запуска моделей в домашних условиях - это llama.cpp [6] и Ollama [7], но у них на данный момент модели этой серии не поддерживаются. Когда поддержку добавят, то думаю, что 4-х битные кванты этой модели будут размером около 16-18GB.
2 октября вышла версия vllm 0.11.0 [8] в которой добавили поддержку этой модели.
Особенность vllm в том, что запустить модель можно только если она полностью помещается на GPU. Выгрузка в RAM теоретически есть, но практически - не работает.
По ссылке выше - модель размером 32.3 GB. Плюс ещё надо место для контекта.
Система:
OS: Ubuntu 24
GPU: NVIDIA RTX 4090D 48GB
Предполагается. что уже стоят NVIDIA драйверы, Docker и nvidia-container-toolkit
Docker Composer:
services:
qwen3vl:
image: vllm/vllm-openai:v0.11.0
container_name: qwen3vl-30b-4090D
deploy:
resources:
reservations:
devices:
- driver: nvidia
capabilities: [gpu]
device_ids: ['0']
ports:
- "36000:8000"
environment:
TORCH_CUDA_ARCH_LIST: "8.9"
volumes:
- /home/slavik/.cache:/root/.cache
ipc: host
command:
- "--model"
- "Qwen/Qwen3-VL-30B-A3B-Thinking-FP8"
- "--max-model-len"
- "139268"
- "--served-model-name"
- "local-qwen3vl-30b"
- "--dtype"
- "float16"
- "--gpu-memory-utilization"
- "0.98"
- "--max-num-seqs"
- "2"
- "--reasoning-parser"
- "deepseek_r1"
В манифесте выше вам нужно будет подправить:
путь, где вы будете хранить модель. Модель загрузится при первом запуске контейнера. Это может занять значительно время.
порт. Выше - это 36000
Контекст - 139к. Вот столько помещаются у меня в 48GB VRAM.
VLLM при запуске компилирует данные из модели, и у меня это занимает 2-4 минуты.
Поле "reasoning-parser": может паказаться странным, что значение - "deepseek_r1", но без этого параметра "рассуждения" попадают в сам ответ, а не в ту его часть, которая для "рассуждений"
Скорость:
обработка промпта: 4000+ токенов в секунду.
генерация токенов в ответ:
90 токенов в секунду на маленьком контексте
40 токенов в секунду на 120k контексте
VLLM не предоставляет никакого пользовательского интерфейса (UI), а только API.
Поэтому получить ответ можно либо отправив запрос с помощью утилиты, например curl:
curl 'http://192.168.0.123:36000/v1/chat/completions'
-H 'Content-Type: application/json'
-d '{
"messages": [
{
"role": "user",
"content": "Что такое счастье?"
}
]
}' | jq
Либо используя какой-нибудь frontend.
Один из самых популярных - OpenWebUI [9]. Я использую именно этот. И в общем всё работает: можно отправлять текст, картинки, даже сразу рендерится HTML из ответов.
"Рассуждает" модель довольно усердно, что может занимать значительное время, но качество ответов это серьёзно улучшает. Если же приоритет - скорость ответа, то можно использовать вот эту модель из этой же коллекции - она без "рассуждений" и отвечает сразу:
https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Instruct-FP8 [10]
В общем, модели - классные, удобные. Запускайте, пользуйтесь.
Автор: SlavikF
Источник [11]
Сайт-источник PVSM.RU: https://www.pvsm.ru
Путь до страницы источника: https://www.pvsm.ru/komp-yuternoe-zrenie/432618
Ссылки в тексте:
[1] https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe: https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe
[2] написали: https://qwen.ai/blog?id=99f0335c4ad9ff6153e517418d48535ab6d8afef&from=research.latest-advancements-list
[3] GPT-OSS-120B: https://huggingface.co/openai/gpt-oss-120b
[4] MXFP4: https://huggingface.co/ggml-org/gpt-oss-120b-GGUF
[5] https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Thinking-FP8: https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Thinking-FP8
[6] llama.cpp: https://github.com/ggml-org/llama.cpp
[7] Ollama: https://github.com/ollama/ollama
[8] версия vllm 0.11.0: https://github.com/vllm-project/vllm/releases/tag/v0.11.0
[9] OpenWebUI: https://github.com/open-webui/open-webui
[10] https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Instruct-FP8: https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Instruct-FP8
[11] Источник: https://habr.com/ru/articles/953514/?utm_campaign=953514&utm_source=habrahabr&utm_medium=rss
Нажмите здесь для печати.