Рубрика «нагота»

Сотрудники YouTube ищут ненависть на видео. ИИ наблюдает и учится - 1
Реклама фильма BBC рядом с видеороликом националистической группировки «Национальное возрождение Польши»

Каждый день сотни людей в разных уголках США (а может и за границей) включают свои компьютеры и начинают смотреть YouTube. Но они делают это не ради удовольствия, совсем наоборот. Людей тошнит от этой работы, но таковы требования временного работодателя, компании Google — они должны просматривать видеоролики, искать ненавистнические выражения в титрах и речи, помечать видео как «оскорбительное» или «деликатное». Всё ради того, чтобы в такие видеоролики, не дай бог, не попала реклама крупного рекламодателя, которого потом загнобят за финансовую поддержку расистов и тому подобные грехи. С этим столкнулись Walmart, PepsiCo и Verizon, среди прочих.
Читать полностью »

На что смотрит свёрточная нейросеть, когда видит наготу - 1

На прошлой неделе в компании Clarifai мы формально анонсировали нашу модель распознавания непристойного контента (NSFW, Not Safe for Work).

Предупреждение и отказ от ответственности. Эта статья содержит изображения обнажённых тел в научных целях. Мы просим не читать дальше тех, кому не исполнилось 18 лет или кого оскорбляет нагота.


Автоматическое выявление обнажённых фотографий было центральной проблемой компьютерного зрения на протяжении более двух десятилетий, и из-за своей богатой истории и чётко поставленной задачи она стала отличным примером того, как развивалась технология. Я использую проблему детектирования непристойности для пояснения, как обучение современных свёрточных сетей отличается от исследований, проводившихся в прошлом.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js