Компания Google открыла исходные коды модели семантической сегментации изображений DeepLab-v3+. Эта технология, позволяющая понять, какой объект относится в том или ном участке кадра, используется, в частности, в портретном режиме фотосъемки в смартфонах Pixel 2 and Pixel 2 XL, позволяя размывать фон. Впрочем, возможности ее применения не ограничиваются.
![Технология сегментации изображений, используемая Google в портретном режиме фотосъемки, стала доступна сторонним разработчикам - 1 Технология сегментации изображений, используемая Google в портретном режиме фотосъемки, стала доступна сторонним разработчикам](https://www.pvsm.ru/images/2018/03/14/tehnologiya-segmentacii-izobrajenii-ispolzuemaya-Google-v-portretnom-rejime-fotosemki-stala-dostupna-storonnim-razrabotchikam.jpg)
Решение Google раскрыть эту технологию позволит сторонним разработчикам использовать очень мощный алгоритм, реализованный средствами библиотеки Tensorflow и позволяющий присвоить каждому пикселю снимка определенную смысловую метку, такую, как «дорога», «небо», «человек» и т.п.
![Технология сегментации изображений, используемая Google в портретном режиме фотосъемки, стала доступна сторонним разработчикам - 2 Технология сегментации изображений, используемая Google в портретном режиме фотосъемки, стала доступна сторонним разработчикам](https://www.pvsm.ru/images/2018/03/14/tehnologiya-segmentacii-izobrajenii-ispolzuemaya-Google-v-portretnom-rejime-fotosemki-stala-dostupna-storonnim-razrabotchikam-2.jpg)
Современные модели семантической сегментации, построенные на сверточных нейронных сетях, достигли точности, на которую трудно было рассчитывать всего несколько лет назад. Наряду с моделью, Google раскрывает код, используемый для ее обучения и оценки, а также экземпляры модели, предварительно обученные на множествах для тестов Pascal VOC 2012 и Cityscapes.