"Яндекс" сделал поиск по запросам-картинкам, как у Google и Baidu  

в 10:00, , рубрики: Новости

В Яндекс.Картинках сегодня заработали визуальные запросы - введя url картинки или загрузив изображение с компьютера, можно найти похожие изображения. 

"Яндекс" сделал поиск по запросам картинкам, как у Google и Baidu  
Алгоритм для поиска дублей в Яндекс.Картинках работал давно - но не позволял пользователям делать "картиночные" запросы, а использовался для группировки результатов поиска (чтобы страница выдачи не была заполнена копиями одного изображения). Выпущенный сегодня сервис - ставит целью уже не поиск дублей, а распознавание объектов на картинках - чтобы в ответ на запрос пользователь получил не только информацию о размещении изображения в сети (хотя такая возможность тоже остается), а дополнительную информацию об изображенном на картинке объекте. 
Аналогичные сервисы уже есть у мировых поисковых гигантов Google, Baidu. В свое время (в 1999 году) их опередил канадский TinEye (далее исправлено - Roem.ru), ориентированный на поиск копий (в том числе модифицированных) и копиями ограничивающийся.
Мы провели небольшой сравнительный тест - на примере пресловутого "дизайнерского стула", который сервисы визуального поиска обещать помочь найти и купить:
Google "распознал" объект и автоматически добавил в запрос имя дизайнера. Сайты, содержащие копию/аналог изображения - в отдельной секции выдачи:
"Яндекс" сделал поиск по запросам картинкам, как у Google и Baidu  
Яндекс (как и  TinEye с Baidu) по аналогичному запросу показывает просто "такие же картинки":
"Яндекс" сделал поиск по запросам картинкам, как у Google и Baidu  
С локальным запросом (на картинке - одежда питерских дизайнеров) Яндекс справился лучше: 
 "Яндекс" сделал поиск по запросам картинкам, как у Google и Baidu  
Google отсылает к "народному" сервису распознавания/поиска товаров вручную - Wheretoget.it (отдельного внимания здесь заслуживает секция visually similar images):
"Яндекс" сделал поиск по запросам картинкам, как у Google и Baidu  
На этих примерах видно, как визуальное "распознавание" основывается вовсе не на визуальном сопоставлении, а гораздо больше зависит от наличия и богатства метаинформации вокруг картинки: источник, текст, пользовательские тэги и т.д.. Накопившаяся к сегодняшнему дню база знаний позволяет искать "такие же картинки", возможно, отвечать на общие вопросы "что это"и "откуда" - но пока не позволяет сделать работающий на лету сервис, вроде Google Goggles (сам Goggles - тоже пока не смог, а "Яндекс", кстати, планирует выход "Сибири" - так называется технология визуального поиска - в виде мобильного сервиса). Про возможность распознать Ниагарский водопад на снимке "какого-то водопада" - Яндекс на данный момент всё-таки сильно преувеличивает (то есть, с любительским, а не каталожным снимком, это не срабатывает).

У визуального сопоставления, однако, даже в нынешнем виде есть коммерческий потенциал. Так, российский стартап Kuznech.com (сам поисковик работает в закрытой бете) уже продает магазинам функционал с содержанием "показать покупателю другие розовые туфли на каблуках в этом магазине вместо модели, отсутствующей на складе". Еще один стартап, о котором недавно писал Roem.ru - приложение для "визуального шопинга" Goodwin, мечтает от сканирования QR-кодов мобильником (с отсылкой в интернет-магазин) перейти к "сканированию" собственно желаемых объектов. Прототип визуально-распознающего-продающего сервиса есть и у Mail.Ru - это приложение TagBrand

Источник


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js