На расстрел: сертификация сайтов на отсутствие ботов признанным счётчиком

в 1:48, , рубрики: Новости

В последнее время выходило несколько материалов (вот и вот), посвященных теме трафика сгенерированного ботами. Исследователи озвучивают огромные цифры потраченных впустую денег рекламодателей.

Боты снижают эффективность рекламы, а это приводит к более спокойному отношению рекламодателей к рекламе в интернете (снижение доверия). Рекламодатели стремятся перераспределить бюджеты в более надежные (понятные) каналы (например, ТВ) и отдают предпочтение площадкам первого эшелона (Яндекс, Mail.ru и т.д.). А это приводит к тому, что вся индустрия может меньше заработать, хорошие площадки второго эшелона лишаются части возможных доходов и, соответственно, средств на развитие. Боты оказываются токсичный эффект на рынок. Для недобросовестной площадки, боты это «быстрая» таблетка. Можно спустя рукава думать о потребителе, о развитии. Отказаться от такой таблетки сложно.

Обсуждались несколько вариантов решения проблемы – повышение качества проверки, черные списки недобросовестных рекламодателей, баннеры, требующие дополнительных действий пользователя. Ряд сайтов открывают данные счетчика LiveInternet – можно посмотреть источники трафика. Это улучшает оценку качества площадки, но не решает проблему, т.к. трафик от ботов может маскироваться под нормальные источники трафика.

Идея

Предлагаю еще один вариант решения этой проблемы. Важно, чтобы решение, позволяющее бороться с ботами, было простым в использовании, имело широкий охват площадок, вызывало доверие у участников рынка.

Практически все сайты Рунета используют счетчики – Яндекс.Метрика, Google.Analytics, меньше охват у счетчиков LiveInternet, заметно реже стоит счетчик TNS.

У Метрики есть хороший отчет – Роботы (Мониторинг - Роботы). На картинке приведен пример такого отчета

У Метрики есть хороший отчет – Роботы (Мониторинг - Роботы). На картинке приведен пример такого отчета.

Мы видим, что в данном примере, на роботов (по данным Метрики) приходится 4% хитов. Из этих 4%, более 95% процентов приходится на ботов, отфильтрованных по статистическим правилам. Получается, принципиально, по каждому сайту, использующему Метрику, есть информации об количестве хитов, генерируемых роботами. Метрика, для определения роботов, скорее всего, использует данные от «Крипта». Можно критиковать «Крипта» и Метрику, но вряд ли в Рунете есть более точные, широкоохватные данные.

Сейчас, этот отчет доступен в интерфейсе Метрики. При наличии доброй воли Яндекса, отчет может быть выведен в информер. Рекламодатели могут требовать от сайтов наличия информера, показывающего долю хитов, генерируемых роботами. Это даст дополнительную информацию о качестве площадки.

А при наличии API, возможно создание автоматизированных «черных списков», выключение показов на «плохих» площадках или выключение показов рекламы именно на ботах. Недавно, Яндекс купил рекламный движок AdFox, и реализация функционала исключения показов на трафике генерируемом ботами, выглядит теоретически возможной.

Предложенная идея требует дальнейшего обсуждения и проработки.

С уважением, Максим Самборский

Источник

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js