Как оценить качество системы A-B-тестирования

в 6:21, , рубрики: ab testing, split testing, Блог компании HeadHunter, Программирование, Разработка веб-сайтов, статистика, Тестирование IT-систем, Тестирование веб-сервисов

Как оценить качество системы A-B-тестирования - 1

Вот уже более полугода в компании используется единая система для проведения A/B-экспериментов. Одной из самых важных частей этой системы является процедура проверки качества, которая помогает нам понять, насколько мы можем доверять результатам A/B-тестов. В этой статье мы подробно опишем принцип работы процедуры проверки качества в расчете на тех читателей, которые захотят проверить свою систему A/B-тестирования. Поэтому в статье много технических деталей.

Несколько слов про A/B-тестирование

Как оценить качество системы A-B-тестирования - 2
Рисунок 1. Схема процесса A/B-тестирования.

В целом процесс A/B-тестирования можно разделить на следующие шаги (показанные на рисунке):

  1. Распределение пользователей по двум группам A и B.
  2. Представление двум группам пользователей двух различных вариантов.
  3. Сбор данных и вычисление значения метрики для каждой группы.
  4. Сравнение с помощью статистического теста значений метрики в обеих группах и принятие решения, какой из двух вариантов выиграл.

В принципе, с помощью A/B-тестов можно сравнивать любые два варианта, но мы, для определенности, будем считать, что группе A показывается текущий вариант, работающий в продакшене, а группе B — экспериментальный вариант. Таким образом, группа A — контрольная группа, а группа B — экспериментальная. Если пользователям в группе B показывается такой же вариант, как и в группе A (то есть между вариантами A и B нет никакой разницы), то такой тест называют A/A-тестом.
Если в A/B-тесте победил один из вариантов, то говорят, что тест прокрасился.

История A/B-тестирования в компании

A/B-тестирование в компании HeadHunter началось, можно сказать, стихийно: команды разработчиков произвольно делили аудиторию на группы и проводили эксперименты. При этом общего пула проверенных метрик не было — каждая команда вычисляла свои собственные метрики из логов действий пользователей. Общей системы определения победителя тоже не было: если один вариант сильно превосходил другой, то он признавался победителем; если разница между двумя вариантами была небольшой, то для определения победителя применялись статистические методы. Хуже всего было то, что разные команды могли проводить эксперименты на одной и той же группе пользователей, тем самым влияя на результаты друг друга. Стало понятно, что нам нужна единая система для проведения A/B-тестов.
Такая система была создана и запущена в июле 2016 года. С помощью этой системы в компании уже проведено 77 экспериментов. Количество A/B-экспериментов по месяцам показано на рисунке 2.

Как оценить качество системы A-B-тестирования - 3

Рисунок 2. Число A/B-экспериментов по месяцам с момента запуска системы A/B-тестирования. Число экспериментов за март 2017 неполное, т.к. на момент публикаций этот месяц еще не закончился.

При создании системы A/B-тестирования мы уделили наибольшее внимание статистическому тесту. В первую очередь нас интересовал ответ на следующий вопрос:
Как убедиться в том, что статистический тест нас не обманывает и мы можем доверять его результатам?
Вопрос вовсе не праздный, поскольку вред от некорректных результатов стат. теста может быть даже больше, чем от отсутствия результатов.

Почему у нас могут быть причины не доверять стат. тесту? Дело в том, что статистический тест предполагает вероятностную интерпретацию измеряемых величин. Например, мы считаем, что у каждого пользователя есть «вероятность» совершить некое успешное действие (успешными действиями могут быть регистрация, покупка товара, лайк и т. д.). При этом мы считаем действия разных пользователей независимыми. Но изначально мы не знаем, насколько хорошо действия пользователей соответствуют вероятностной модели стат. теста.

Чтобы оценить качество системы A/B-тестирования, мы проводили большое количество A/A-тестов и измеряли процент прокрасившихся тестов, то есть процент случаев, в которых стат. тест ошибался, утверждая о статистически значимом превосходстве одного варианта над другим. О пользе A/A-тестов можно прочитать, например, здесь. Измеренный процент ошибок стат. теста сравнивался с заданным теоретическим значением: если они примерно совпадали, значит, все хорошо; если измеренный процент ошибок сильно меньше или сильно больше теоретического, значит, результаты такого стат. теста ненадежны.

Чтобы рассказать подробнее о методе оценки качества системы A/B-тестирования, следует сначала рассказать про уровень значимости и про другие понятия, возникающие при проверке статистических гипотез. Читатели, знакомые с данной темой, могут пропустить следующий параграф и перейти к параграфу Оценка качества системы A/B-тестирования.

Статистический тест, доверительные интервалы и уровень значимости

Давайте для начала рассмотрим простой пример. Пусть у нас всего 6 пользователей и мы разбили их на 2 группы по 3 человека, провели A/B-тест, подсчитали значение метрики для каждого отдельного пользователя и получили в результате такие таблицы:

Таблица 1. Группа A, среднее значение метрики $widehat{mu}_{A}=dfrac{1}{3}$
Пользователь Значение метрики
А. Антонов 1
П. Петров 0
С. Сергеев 0

Таблица 2. Группа B, среднее значение метрики $widehat{mu}_{B}=dfrac{2}{3}$
Пользователь Значение метрики
Б. Быстров 0
В. Вольнов 1
У. Умнов 1

Среднее значение метрики в группе A равно $widehat{mu}_{A}=dfrac{1}{3}$, в группе B — $widehat{mu}_{B}=dfrac{2}{3}$, а среднее значение разности между двумя группами равно $widehat{mu}_{Delta}=widehat{mu}_{B} - widehat{mu}_{A}=dfrac{1}{3}$. Если мы ограничимся только средними значениями, то получается, что вариант, показанный группе B, выиграл (т. к. разность $widehat{mu}_{Delta}$ больше нуля). Но в каждой группе только 3 значения — значит, истинное значение разности мы оценили по 6 числам, то есть с большой погрешностью. Поэтому полученный результат может быть случайным и может ровным счетом ничего не значить.

То есть, кроме разности средних значений метрики в двух группах, нам еще хотелось бы оценить и доверительный интервал для истинного значения разности $mu_{Delta}$, то есть интервал в котором, «скорее всего», лежит истинное значение. Фраза «скорее всего» имеет интуитивное значение. Чтобы его формализовать, используют понятие уровня значимости $alpha$. Уровень значимости связан с доверительным интервалом и отражает степень нашей уверенности, что истинное значение находится внутри данного доверительного интервала. Чем меньше уровень значимости, тем мы более уверены.
Представить себе, что означает уровень значимости, можно так. Если мы много раз будем повторять A/A-тест, то процент случаев, в которых A/A-тест прокрасится, будет примерно равен $alpha$. То есть в $alpha %$ случаев мы отклоняем гипотезу о равенстве вариантов, хотя оба варианта действительно равны (иными словами, в $alpha %$ случаев мы совершим ошибку первого рода). Мы выбрали уровень значимости равным $alpha=5%$.

Собственно, статистический тест как раз и занимается оценкой доверительного интервала для разности $mu_{Delta}$ при заданном уровне значимости. Если доверительный интервал известен, то процедура определения победителя проста:

  • Если обе границы доверительного интервала больше 0, значит, выиграл вариант B.
  • Если 0 внутри интервала, значит, ничья — ни один из вариантов не выиграл.
  • Если обе границы меньше 0, значит, выиграл вариант A.

Например, предположим, что мы как-то смогли узнать, что для уровня значимости $alpha=5%$ доверительный интервал для разности в нашем примере равен $widehat{mu}_{Delta} pm dfrac{1}{2}rightarrow dfrac{1}{3} pm dfrac{1}{2}rightarrow left[-dfrac{1}{6}, dfrac{5}{6}right]$. То есть, истинное значение разности $mu_{Delta}$ скорее всего лежит внутри интервала $left[-dfrac{1}{6}, dfrac{5}{6}right]$. Ноль принадлежит этому интервалу — значит, у нас нет оснований предполагать, что один из вариантов лучше, чем другой (в действительности один из вариантов может быть лучше, чем другой, у нас просто недостаточно данных, чтобы утверждать об этом с уровнем значимости 5%).

Нам осталось понять, как статистический тест из уровня значимости и экспериментальных данных оценивает доверительные интервалы для разности значений метрики между группами A и B.

Определение доверительных интервалов

Как оценить качество системы A-B-тестирования - 21
Рисунок 3. Оценка доверительных интервалов для разности $mu_{Delta}$ с помощью бутстрэпа (левый график, 10 000 итераций бутстрэпа) и аналитически (правый график). Зеленой линией показаны границы доверительного интервала, черной линией — положение нуля. На среднем графике оба способа совмещены для сравнения.

Для определения доверительных интервалов мы пользовались двумя способами, показанными на рисунке 3:

  • Аналитически.
  • С помощью бутстрэпа.

Аналитическая оценка доверительных интервалов

В аналитическом подходе мы опираемся на утверждение центральной предельной теоремы (ЦПТ) и ожидаем, что разность средних значений метрик в двух группах будет иметь нормальное распределение, с параметрами $mu_{Delta}$ и $sigma_{Delta}$. Точных значений $mu_{Delta}$ и $sigma_{Delta}$ мы не знаем, но можем подсчитать приближенные оценки $widehat{mu}_{Delta}$ и $widehat{sigma}_{Delta}$:

$begin{eqnarray*} widehat{mu}_{Delta} &=& widehat{mu}_B - widehat{mu}_A \ widehat{sigma}_{Delta} &=& sqrt{widehat{sigma}_A^2 + widehat{sigma}_B^2} end{eqnarray*}$

Где средние значения ($widehat{mu}_A, widehat{mu}_B$) и дисперсии средних значений ($widehat{sigma}_A, widehat{sigma}_B$) вычисляются

по стандартным формулам.

$begin{eqnarray*} widehat{mu}_A &=& dfrac{1}{N_A} sum_{i=1}^{N_A} x_i\ widehat{mu}_B &=& dfrac{1}{N_B} sum_{j=1}^{N_B} x_j\ widehat{sigma}_A^2 &=& dfrac{1}{N_A (N_A - 1)} sum_{i=1}^{N_A} (x_i - widehat{mu}_A)^2\ widehat{sigma}_B^2 &=& dfrac{1}{N_B (N_B - 1)} sum_{j=1}^{N_B} (x_j - widehat{mu}_B)^2 end{eqnarray*}$

Зная параметры нормального распределения и уровень значимости, мы можем вычислить доверительные интервалы. Формулы для вычисления доверительных интервалов мы не приводим, но идея показана на рисунке 3 на правом графике.

Одним из минусов такого подхода является тот факт, что в ЦПТ случайные величины предполагаются независимыми. В реальности это предположение часто нарушается, в частности, из-за того, что действия одного пользователя зависимы. Например, пользователь «Амазона», купивший одну книгу, скорее всего, купит и еще одну. Будет ошибкой считать две покупки одного пользователя независимыми случайными величинами, потому что мы можем в результате получить слишком оптимистичную оценку на доверительный интервал. А это означает, что в реальности процент ложно прокрасившихся A/A-тестов может быть в разы больше, чем заданное значение. Именно это мы и наблюдали на практике. Поэтому мы попробовали другой метод оценки доверительных интервалов, а именно бутстрэп.

Оценка доверительных интервалов с помощью бутстрэпа

Бутстрэп — это один из методов непараметрической оценки доверительных интервалов, в котором не делается никаких предположений о независимости случайных величин. Применение бутстрэпа для оценки доверительных интервалов сводится к следующей процедуре:

  1. Повторять $N_{textrm{bootstrap}}$ раз:
    • выбрать с помощью бутстрэпа случайные подвыборки значений из групп A и B;
    • подсчитать разность средних значений $widehat{mu}_{Delta_i}$ в этих подвыборках;

  2. Упорядочить по возрастанию значения, полученные на каждой итерации
  3. С помощью упорядоченного массива $left[widehat{mu}_{Delta_1}, widehat{mu}_{Delta_2}, ~ dots ~ widehat{mu}_{Delta_{N_{textrm{bootstrap}}}}right]$ определить доверительный интервал так, чтобы $sim (1- alpha)cdot N_{textrm{bootstrap}}$ точек лежали внутри интервала. То есть, левой границей интервала будет число с индексом
    $dfrac{alpha}{2} cdot N_{textrm{bootstrap}}$, а правой границей — число с индексом $ (1 - dfrac{alpha}{2}) cdot N_{textrm{bootstrap}}$ в упорядоченном массиве.

На рисунке 3 на левом графике показаны гистограмма для массива значений разности, полученного после 10 000 итераций бутстрэпа, и доверительные интервалы, вычисленные по описанной здесь процедуре.

Оценка качества системы A/B-тестирования

Итак, мы разбили всех пользователей на $N_textrm{groups}$ групп, подготовили статистический тест и выбрали метрику, которую хотим улучшать. Теперь мы готовы оценивать качество системы A/B-тестирования. В HeadHunter нас интересовало, как часто стат. тест будет совершать ошибку первого рода, то есть какой процент A/A-тестов будет прокрашиваться (обозначим эту величину $alpha^textrm{real}$) при фиксированном уровне значимости $alpha$.
Вычислить $alpha^textrm{real}$ мы можем проведя много A/A-тестов. В итоге мы можем получить три варианта:

  1. Если $alpha^textrm{real} ll alpha$, то либо стат. тест, либо выбранная метрика слишком консервативны. То есть у A/B-тестов заниженная чувствительность («стойкий оловянный солдатик»). И это плохо, т. к. в процессе эксплуатации такой системы A/B-тестирования мы будем часто отклонять изменения, которые действительно что-то улучшили, т. к. мы не почувствовали улучшения (т. е. мы будем часто совершать ошибку второго рода).
  2. Если $alpha^textrm{real} gg alpha$, то либо стат. тест, либо выбранная метрика слишком чувствительны («принцесса на горошине»). Это тоже плохо, т. к. в процессе эксплуатации мы будем часто принимать изменения, которые в действительности ни на что не влияли (т. е. мы будем часто совершать ошибку первого рода).
  3. Наконец, если $alpha^textrm{real} approx alpha$, значит, стат. тест вместе с выбранной метрикой показывают хорошее качество и такой системой можно пользоваться для проведения A/B-тестирования.

Как оценить качество системы A-B-тестирования - 46 Как оценить качество системы A-B-тестирования - 47
(а) Перебираем все возможные пары (б) Случайно разбиваем на непересекающиеся пары
Рисунок 4. Два варианта разбиения 4 групп пользователей ($G_1$, $G_2$, $G_3$, $G_4$) на пары.

Итак, нам нужно провести много A/A-тестов, чтобы лучше оценить процент ошибок стат. теста $alpha^textrm{real}$. Для этого нам нужно большое число пар групп пользователей. Но откуда можно взять большое число пар, если все пользователи распределены по небольшому числу групп (мы распределяли пользователей по 64 группам). Первое, что приходит в голову, — это составить всевозможные пары групп. Если число групп пользователей у нас равно $N_textrm{groups}$, то мы сможем из них составить $dfrac{N_textrm{groups} (N_textrm{groups} - 1)}{2}$ различных пар (схема разбиения на пары для 4 групп показана на рисунке 4 (a)).
Однако такой подход обладает серьезным недостатком, а именно: мы получаем большое число зависимых пар. Например, если в одной группе среднее значение метрики очень мало, то большинство A/A-тестов для пар, содержащих эту группу, прокрасится. Поэтому мы остановились на подходе, показанном на рисунке 4 (б), в котором все группы разбиваются на непересекающиеся пары. То есть число пар равно $dfrac{N_textrm{groups}}{2}$. Пар получилось значительно меньше, чем в первом способе, но зато теперь они все независимы.

Результаты применения A/A-теста к 64 группам пользователей, которые разбились на 32 независимые пары, показаны на рисунке 5. Из этого рисунка видно, что из 32 пар прокрасились только 2, то есть $alpha^textrm{real}=2/32 cdot 100% approx 6%$.

Как оценить качество системы A-B-тестирования - 57
Рисунок 5. Результаты A/A-тестов для 64 групп пользователей, случайно разбитых на 32 пары. Доверительные интервалы вычислялись с помощью бутстрэпа, уровень значимости — 5%. Гистограммы значений $left[widehat{mu}_{Delta_1}, widehat{mu}_{Delta_2}, ~ dots ~ widehat{mu}_{Delta_{N_{textrm{bootstrap}}}}right]$, полученных бутстрэпом, показаны синим для непрокрасившихся пар, желтым для прокрасившихся; распределение Гаусса с вычисленными аналитически параметрами показано красным. Черная линия показывает положение нуля.

В принципе, на этом можно было бы и остановиться. У нас есть способ вычислить реальный процент ошибок стат. теста. Но в этом способе нас смущало небольшое число A/A-тестов. Кажется, что 32 A/A-теста — это маловато для надежного измерения величины $alpha^textrm{real}$. Значит, нам осталось ответить на следующий вопрос:
Если число пар невелико, то как нам надежно измерить $alpha^textrm{real}$?
Мы использовали такое решение: давайте много раз случайно перераспределять пользователей по группам. И после каждого перераспределения мы сможем измерять процент ошибок $alpha^textrm{real}_{i}$. Среднее всех измеренных значений даст оценку величины $alpha^textrm{real}$.
В итоге мы получили следующую процедуру для оценки качества системы A/B-тестирования:

  1. Повторять $N_textrm{iterations}$ раз:
    • Случайно распределить всех пользователей по $N_textrm{groups}$ группам;
    • Случайно разбить $N_textrm{groups}$ групп на $dfrac{N_textrm{groups}}{2}$ пар;
    • Для всех пар провести A/A-тест и вычислить процент прокрасившися пар $alpha^textrm{real}_i$ на данной $i$-ой итерации

  2. вычислить $alpha^{textrm{real}}$ как среднее по всем итерациям:

    $$display$$ begin{equation*} alpha^{textrm{real}} =dfrac{1}{N_textrm{iterations}} sum_{i=1}^{N_textrm{iterations}}alpha^textrm{real}_i end{equation*} $$display$$

Если в процедуре оценки качества системы A/B-тестирования мы зафиксируем стат. тест (например, всегда будем использовать бутстрэп) и поверим, что сам стат. тест непогрешим (или незаменим), то у нас получится система оценки качества метрик.

Пример оценки качества одной из метрик показан на рисунке 6. Из этого графика видно, что средний процент ошибок стат. теста (т.е. значение $alpha^textrm{real}$) практически идеально совпадает с заданным значением $alpha=5,%$. Стоит отметить, что такое хорошее совпадение мы видели нечасто. Мы считаем хорошим совпадением, если $3,% leq alpha^textrm{real} leq 8,%$.

Как оценить качество системы A-B-тестирования - 73

Рисунок 6. Результат оценки качества для метрики успешных действий пользователей. Синим показана гистограмма для массива чисел $left[alpha^textrm{real}_1, alpha^textrm{real}_2 ~ dots ~ alpha^textrm{real}_{N_textrm{iterations}}right]$, зеленым — среднее значение массива, черным — заданный уровень значимости для бутстрэпа (число итераций бутстрэпа — 10 000). Количество пар групп пользователей равно 32. Число итераций процедуры оценки качества $N_textrm{iterations}=1000$.

Результаты оценки качества метрик

Как оценить качество системы A-B-тестирования - 76 Как оценить качество системы A-B-тестирования - 77 Как оценить качество системы A-B-тестирования - 78
(a) (б) (в)
Рисунок 7. Результаты оценки качества для метрики успешности поисковых сессий: (а) — для исходной метрики и бутстрэпа по значениям, (б) — для исходной метрики и бутстрэпа по пользователям, (в) — для модифицированной метрики и бутстрэпа по значениям.

Когда мы применили процедуру оценки качества к метрике успешности поисковых сессий, то получили такой результат, как на рисунке 7 (а). Стат. тест в теории должен ошибаться в 5% случаев, а в реальности ошибается в 40% случаев! То есть, если мы будем использовать данную метрику, то 40% A/B-тестов будут прокрашиваться, даже если вариант А ничем не отличается от варианта Б.

Данная метрика оказалась «принцессой на горошине». Однако мы все же хотели использовать эту метрику, так как ее значение имеет простую интерпретацию. Поэтому мы стали разбираться, в чем может быть проблема и как с этим можно справиться.
Мы предположили, что проблема может быть связана с тем, что от одного пользователя в метрику попадает несколько значений, которые зависимы. Пример ситуации, когда от одного пользователя (Иван Иванович) в метрику попадает два числа, показан в таблице 3.

Таблица 3. Пример нескольких значений в метрике от одного пользователя
Пользователь Значение метрики
Иван Иванович 0
Иван Никифорович 0
Антон Прокофьевич 1
Иван Иванович 1

Ослабить влияние зависимости значений одного пользователя мы можем либо модификацией стат. теста, либо изменением метрики. Мы попробовали оба этих варианта.

Модификация стат. теста

Поскольку значения от одного пользователя зависимы, то мы выполняли бутстрэп не по значениям, а по пользователям: если пользователь попал в бутстрэпную выборку, то используются все его значения; если не попал, то не используется ни одно из его значений. Применение такой схемы привело к значительному улучшению (рисунок 7 (б)) — реальный процент ошибок стат. теста на 100 итерациях оказался равным $alpha^{textrm{real}}=4.8%$, что очень близко к теоретическому значению $alpha=5.0%$.

Модификация метрики

Если нам мешает, что от одного пользователя в метрику попадает несколько зависимых значений, то можно сначала усреднить все значения внутри пользователя, чтобы от каждого пользователя в метрику попадало бы только одно число. Например, таблица 3 после усреднения значений внутри каждого пользователя перейдет в следующую таблицу:

Таблица 4. Пример агрегации значений внутри каждого пользователя
Пользователь Значение метрики
Иван Иванович 0.5
Иван Никифорович 0
Антон Прокофьевич 1

Результаты оценки качества метрики после данной модификации показаны на рисунке 7 (в). Процент случаев, в которых стат. тест ошибался, оказался почти в 2 раза ниже теоретического значения $alpha=5.0%$. То есть, для данной метрики $alpha^textrm{real}$ и $alpha$ неидеально совпадают, но это гораздо лучше, чем исходная ситуация на рисунке 7 (а).

Какой из двух подходов лучше

Мы применяли оба подхода (модификация стат. теста и модификация метрики) для оценки качества различных метрик, и для подавляющего большинства метрик оба подхода показывали хорошие результаты. Поэтому использовать можно тот способ, который проще реализовать.

Выводы

Главный вывод, который мы сделали при оценке качества системы A/B-тестирования: нужно обязательно выполнять оценку качества системы A/B-тестирования). Перед тем как использовать новую метрику, ее нужно проверить. Иначе A/B-тесты рискуют превратиться в одну из форм гадания и повредить процессу разработки.

В этой статье мы постарались, насколько это возможно, привести всю информацию о устройстве и принципах работы процедуры оценки качества системы A/B-тестирования, используемой в компании. Но если у Вас остались вопросы, не стесняйтесь задавать их в комментариях.

P.S.

Я хотел бы выразить благодарность lleo за систематизацию процесса A/B-тестирования в компании и за проведение proof-of-concept экспериментов, развитием которых является данная работа, и p0b0rchy за передачу опыта, терпеливые многочасовые разъяснения и за генерацию идей, которые легли в основу наших экспериментов.

Автор: HeadHunter

Источник


* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js