- PVSM.RU - https://www.pvsm.ru -

Pix2Pix: Как работает генератор кошечек

Вы все, наверное, уже видели сверх-реалистичных кошечек, которых можно рисовать вот тут:
https://affinelayer.com/pixsrv/ [1]
image

Давайте разбираться, что же там внутре.

Disclaimer: пост написан на основе отредактированных логов чата closedcircles.com [2], отсюда и стиль изложения, и уточняющие вопросы

Все это — реализация пейпера Image-to-Image Translation with Conditional Adversarial Networks из Berkeley AI Research (https://arxiv.org/pdf/1611.07004v1.pdf [3])

Так как это все работает-то?

В пейпере люди решают задачу image to image transform так, чтобы не нужно было придумывать loss function.

Одна из главных проблем с deep learning в генерации картинок — в том, что если использовать как loss просто среднуюю разницу в пикселях, например, L1 или L2 (он же mean squared error), то сеть стремится усреднять все возможные варианты. Если есть неопределенность, т.е ребро, или цвет, или что еще может быть разным, то оптимальный результат для L2 — что-то среднее,
Посему картинки оказываются очень размытыми пятнами.

Для разных отдельных задач люди придумывали другие loss functions, чтобы выразить какую хочется получить картинку в результате (для сегментации например Conditional Random Fields [4] пробовали добавлять итд итп), но это все помогает очень инкрементально и очень зависит от задачи.

Ну и вот, следуя новым веяниям, в пейпере в качестве такого дополнительного лосса к L1 втыкают GAN (Generative Adversarial Network).
(почитать про GANs можно почитать на Хабре здесь [5] и здесь [6])

Общая схема у них такая:
image
Генератору на вход дается input image — она является дополнительным условием на то, что нужно сгенерировать. На ее основе генератор должен сгенерировать картинку на выход.
Дискриминатору — дается и input image, и то, что сгенерировал генератор (или, для positive examples — настоящая пара из тренировочного датасета), и он должен выдать является ли сгенерированная картинка настоящей или сгенерированной. Таким образом, если генератор будет генерировать картинку, не относящуюся к входной — дискриминатор должен это определить и отбросить.
Генератор является результатом итеративной тренировки этой пары сетей.

В целом, это стандартный сетап Сonditional GANs [7] — варианта GAN, где модель должна генерировать картинки соответствующие дополнительному входному вектору класса.
Только здесь condition — картинка, и общий loss — это GAN loss + L1.

В смысле "втыкают GAN" в контексте обсуждения loss'ов? Типа добавляют генератор и решают задачу на нахождение минимакса?
Ну да.

На высоком уровне все!

Какие у них интересные детали

  • В отличие от классического подхода к GANs, генератору вообще не передается никакого шумового вектора.
    Все разнообразие только от того, что в сети есть dropout, и они его не выключают после тренировки.

  • Архитектура сети — U-Net, достаточно новая архитектура для сегментации, у которой есть много skip connections от энкодера до декодера (вот короткое описание — http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/ [8])

Вот картинка, которая показывает, что и GAN loss, и U-net помогают.
image
Здесь, кстати, хорошо видна изначальная проблема с использованием только L1 loss — даже мощная модель генерирует размытые пятна, чтобы минимизировать среднее отклонение.

  • Они тренируют модель на патчах 70x70, а потом применяют на больших картинках через full convolution.
    Забавно, что 70x70 дает в среднем результаты лучше, чем делать сразу на всей картинке 256x256 целиком.

А где же кошечки!!!

После этого есть система, которую можно научить на произвольных входах и выходах, даже если они из совсем разных задач.
image
Из сегментации в фотографию, из дневной фотки в ночную, из черно-белой в цветную итд.

И вот последний пример — это из ребер в картинку. Ребра по картинке генерируются стандартным алгоритмом из computer vision.
Это означает, что можно просто взять набор картинок, прогнать edge detection, и вот на этих парах
натренировать. Можно и на кошечках:

image

И после этого модель может что-то сгенерировать для любых скетчей, которые рисуют люди.
image
(присылайте, кстати, что вам запомнилось)

Так был ликвидирован недостаток хлебообразных кошек у человечества!

В целом, эта работа — еще один пример того, как взлетают GANs начиная с прошлого года. Оказывается, что это очень мощный и гибкий инструмент, который выражает "хочу чтобы было неотличимо от настоящего, хоть и не знаю, что это конкретно значит" как цель оптимизации.
Надеюсь, кто-то напишет полный обзор остального, происходящего в области! Там все очень круто.

Спасибо за внимание.

Автор: sim0nsays

Источник [9]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/obrabotka-izobrazhenij/248201

Ссылки в тексте:

[1] https://affinelayer.com/pixsrv/: https://affinelayer.com/pixsrv/

[2] closedcircles.com: http://closedcircles.com/?invite=c8932db6b2ac4af14e2760e99fd7fdda3a2427fd

[3] https://arxiv.org/pdf/1611.07004v1.pdf: https://arxiv.org/pdf/1611.07004v1.pdf

[4] Conditional Random Fields: http://www.robots.ox.ac.uk/~szheng/papers/CRFasRNN.pdf

[5] здесь: https://habrahabr.ru/post/275429/

[6] здесь: https://habrahabr.ru/post/278425/

[7] Сonditional GANs: https://arxiv.org/abs/1411.1784

[8] http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/: http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/

[9] Источник: https://habrahabr.ru/post/323374/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best