- PVSM.RU - https://www.pvsm.ru -

MiniGPT-4, ты что за зверь такой?

image

Не проходит и недели, чтобы что-то новое и очень крутое в области LLM не появилось в сети. На этот раз отличились сотрудники из Научно-технологического университета имени короля Абдаллы (технический исследовательский университет в Саудовской Аравии). Они предложили способ наделения языковой модели функцией мультимодальности. Их ресерч называется «Улучшение понимания языка зрения с помощью усовершенствованных больших языковых моделей» (Enhancing Vision-language Understanding with Advanced Large Language Models [1]).

image

Недавняя демонстрация [2] возможностей GPT-4 показала экстраординарные мультимодальные способности, такие как прямое создание веб-сайтов из рукописного текста и определение юмористических элементов в изображениях. Такие функции на таком уровне ранее не встречались в языковых моделях и моделях визуального восприятия.

По мнению авторов работы, основная причина расширенных возможностей GPT-4 по мультимодальной генерации заключается в использовании более совершенной большой языковой модели (LLM). Для изучения этого феномена они выкатили MiniGPT-4 [3], модель, которая выравнивает замороженный визуальный энкодер с замороженной LLM (aligns a frozen visual encoder with a frozen LLM), Vicuna [4], используя только один проекционный слой.

Технически, авторы объединили ужа с ежом языковую и модель визуального восприятия, и получили упрощённый прототип мультимодального GPT-4. Они взяли ViT-L+Q-former из BLIP2 [5] и объединили его с языковой моделью Vicuna-13B [4], и обучили только линейный слой на определённых наборах данных пар изображение-текст. MiniGPT-4 [3] требует только обучения линейного слоя для выравнивания визуальных характеристик с моделью Vicuna [4].

И результаты восхитительны! miniGPT-4 обошла оригинальные модели Openflamingo [6]и BLIP2 [5]. Самое интересное, что данная реализация мультимодальной модели появилась раньше, чем OpenAI успели публично зарелизить такую фичу у GPT-4. Неужели опенсурс обогнал проприетарное решение на повороте?

Обучение

Обучение MiniGPT-4 происходило в два этапа. Первый, этап предварительной подготовки, проводился на ~5 миллионах пар изображение-текст в течении 10 часов с использованием 4xA100 [7]. После первого этапа Vicuna [4] стала способна понимать изображение, при этом способность Vicuna генерировать текст сильно просела.

Для решения этой проблемы, авторы попробовали создавать высококачественные пар изображение-текст с помощью самой модели и ChatGPT. Так появился небольшой (всего 3500 пар), но высококачественный набор данных.

На втором этапе модель дообучилась на полученным в результате предыдущего шага наборе данных в виде диалоговых инструкций. В результате значительно улучшилось качество генерации ответов. К удивлению авторов, этот этап является вычислительно эффективным и занимает всего около 7 минут на одном A100. В MiniGPT-4 реализовано множество новых способностей «языка зрения», (emerging vision-language) аналогичных тем, которые были продемонстрированы в GPT-4.

Результаты работы показывают, что MiniGPT-4 обладает многими возможностями, аналогичными GPT-4, такими как генерация подробных описаний изображений и создание веб-сайтов из рукописных черновиков. Кроме того у MiniGPT-4 появились и другие новые способности, включая написание историй и стихов, вдохновленных заданными изображениями, предоставление решений проблем, показанных на изображениях, обучение пользователей приготовлению пищи на основе фотографий блюд и т. д.

В результате эксперимента авторы обнаружили, что предварительное обучение только на необработанных парах «изображение-текст» может привести к неестественным результатам, лишенным связности, включая повторы и обрывочные предложения. Чтобы решить эту проблему, на втором этапе авторы собрали высококачественный, хорошо согласованный набор данных, чтобы доработать модель с помощью разговорных инструкций.

Этот шаг оказался решающим для повышения точности генерации модели и общего удобства использования. Примечательно, что модель очень эффективна с вычислительной точки зрения, поскольку у неё обучен только проекционный слой, используя около 5 миллионов выровненных пар изображение-текст.

Примеры

image

image

image

image

image

image

image
Больше примеров тут [8].

Ссылки

Мысли

Будущее языковых моделей однозначно за мультимодальностью, которая уже сейчас наделяет LLMки новыми способностями. Они учатся приобретать знания, не ограничиваясь лишь текстовыми описаниями. Дальше будет интереснее — передача моделям голоса, звуков, музыки и видео. ;)
Уже представляю себе кучу пул-реквестов в репозитории llama.cpp [15], с запросом расширить поддержку архитектуры для miniGPT-4 и передачи еще одним параметром изображения. :)

Подписывайтесь на мой канал в дзене agi [16] (про ИИ, языковые модели, новости и тенденции) и телеграм канал hardupgrade [17] (про организацию, структурирование и управление информацией, второй мозг [18]).

Автор: Станислав

Источник [19]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/news/384273

Ссылки в тексте:

[1] Enhancing Vision-language Understanding with Advanced Large Language Models: https://github.com/TsuTikgiau/blip2-llm/blob/release_prepare/MiniGPT_4.pdf

[2] демонстрация: https://www.youtube.com/watch?v=hdhZwyf24mE

[3] MiniGPT-4: https://minigpt-4.github.io/

[4] Vicuna: https://vicuna.lmsys.org/

[5] BLIP2: https://arxiv.org/abs/2301.12597

[6] Openflamingo : https://laion.ai/blog/open-flamingo/

[7] A100: https://www.nvidia.com/ru-ru/data-center/a100/

[8] тут: https://github.com/Vision-CAIR/MiniGPT-4/tree/main/examples

[9] https://github.com/Vision-CAIR/MiniGPT-4: https://github.com/Vision-CAIR/MiniGPT-4

[10] https://huggingface.co/datasets/Vision-CAIR/cc_sbu_align: https://huggingface.co/datasets/Vision-CAIR/cc_sbu_align

[11] https://huggingface.co/Vision-CAIR/MiniGPT-4: https://huggingface.co/Vision-CAIR/MiniGPT-4

[12] претрейн: https://drive.google.com/file/d/1a4zLvaiDBr-36pasffmgpvH5P7CKmpze/view

[13] https://github.com/Vision-CAIR/MiniGPT-4/blob/main/MiniGPT_4.pdf: https://github.com/Vision-CAIR/MiniGPT-4/blob/main/MiniGPT_4.pdf

[14] https://huggingface.co/spaces/Vision-CAIR/minigpt4: https://huggingface.co/spaces/Vision-CAIR/minigpt4

[15] llama.cpp: https://github.com/ggerganov/llama.cpp

[16] agi: https://dzen.ru/agi

[17] hardupgrade: https://t.me/hardupgrade

[18] мозг: http://www.braintools.ru

[19] Источник: https://habr.com/ru/companies/timeweb/articles/729798/?utm_source=habrahabr&utm_medium=rss&utm_campaign=729798