Рубрика «Deepfake» - 2

image

Власти Китая объявили любую публикацию заведомо ложной информации, в том числе дипфейков, уголовным преступлением. Соответствующий закон вступит в силу 1 января 2020 года.

Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость. Читать полностью »

image

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

Разработчики утверждают, что ИИ для автоматической модификации видео не требует дополнительного обучения под конкретное видео. Как пояснил инженер-исследователь Facebook AI и профессор Тель-Авивского университета Лиор Вольф, система объединяет состязательный автокодировщик с нейросетью. Алгоритм просто заменяет лицо человека его слегка искаженной версией, а ИИ использует архитектуру кодировщика-декодера и генерирует искаженные и неискаженные изображения лица человека, которые затем можно встроить в видео. Разработка показала на видео, как это работает.Читать полностью »

Калифорния ввела два закона против дипфейков - 1

Губернатор Калифорнии Гэвин Ньюсом подписал два законопроекта, касающихся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволит жителям государства подать в суд на любого, кто использует дипфейк в порнографическом видео.

Дипфейки могут быть забавными, однако некоторые могут принести ощутимый вред. Например, дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси, на котором была изменена её речь. Создавалось впечатление, что политик была пьяна и едва выговаривала свои слова. Видео было опубликовано на Facebook, и компания не согласилась удалить его сразу, заявив, что вместо этого разместит статью-опровержение, в которой будет подчеркиваться факт редактирования речи.
Читать полностью »

Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение. Кликбейт, монтаж фотографий, ложные новости – все эти инструменты активно используются для обмана обычных пользователей в мировой сети, но в последние годы набирает обороты новый потенциально опасный инструмент, известный как DeepFake.

Меня данная технология заинтересовала недавно. Впервые о ней я узнал из доклада одного из спикеров на “AI Conference 2018”. Там демонстрировалось видео, в котором по аудиозаписи алгоритм сгенерировал видео с обращением Барака Обамы. Ссылка на подборку видео созданных с помощью этой технологии. Результаты меня сильно вдохновили, и мною было принято решение лучше разобраться с данной технологией, чтобы в будущем противодействовать ей. Для этого я решил написать DeepFake на языке C#. В итоге получил такой результат.

image

Приятного чтения!
Читать полностью »

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги - 1

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Чтобы бороться с подступающей угрозой, Facebook и Microsoft недавно собрали коалицию для борьбы с дипфейками, объявив призовой фонд $10 млн тем разработчикам, которые придумают лучшие алгоритмы для их обнаружения. Это помимо DARPA, управления исследованиями Министерства обороны США, выделившего на эту цель $68 млн за последние два года.

Ну так вот, уже поздно. Первое deepfake-преступление уже состоялось.Читать полностью »

Алгоритм DeepPrivacy не позволяет нейросети деанонимизировать людей на фото и видео - 1

Исследователи из Норвежского технологического университета придумали, как использовать технологию DeepFake для сохранения анонимности людей на фото и видео с сохранением исходных данных изображения.

Сохранение собственной конфиденциальности стало важной проблемой. Пока ещё не было найдено подходящего решения для анонимизации человеческих лиц на изображениях без ухудшения качества самого фото. Как правило, для сохранения анонимности лица обычно размывают или закрывают пикселями или чёрным квадратом. Однако это нарушает распределение данных изображения и усложняет дальнейшую его обработку алгоритмами.

Хакон Хуккелас, Рудольф Местер и Фрэнк Линдсет создали систему DeepPrivacy, которая разработана с помощью сразу нескольких нейросетей, используемых для обработки изображений. Сначала изображение обрабатывается нейросетью S3FD, которая определяет, где на фото находится само лицо. Затем в дело вступает нейросеть Mask R-CNN, которая размечает ключевые точки фото человека — глаза, уши, плечи и нос. Этот этап необходим для того, чтобы впоследствии созданное нейросетью новое лицо выглядело максимально реалистично.
Читать полностью »

Security Week 37: уязвимость в Android, Microsoft против deepfakes, популярность Windows 7 - 1Уязвимости в iOS мы обсудили на прошлой неделе, пришла очередь уязвимостей в Android. Четвертого сентября информацию о проблеме в Android опубликовали исследователи из Zero Day Initiative (новость, бюллетень), причем на момент публикации она так и не была закрыта. В выпущенном днем ранее наборе патчей для Android исправлены две критические ошибки в Media Framework, а вот эта проблема в драйвере Video4Linux 2 по-прежнему актуальна.

Поэтому и деталей раскрыто немного. В ZDI оценивают уязвимость в 7,8 баллов по методике CVSS. Суть проблемы заключается в отсутствии проверки драйвером существования объекта перед тем, как проводить операции над ним. Баг для эксплуатации требует локального доступа к системе. Иными словами, приложение с вредоносным кодом и низкими привилегиями может получить полный доступ к смартфону, но это приложение нужно еще как-то установить.

Сообщение об уязвимости представители Google пока не прокомментировали. По данным ZDI, разработчик Android получил информацию о проблеме еще в марте этого года, в июне сообщил, что ведется работа над патчем, но на последующие запросы о дате выпуска заплатки не отвечал. Оценка вендора все же важна: так, компания Apple на прошлой неделе отреагировала на исследование Google об уязвимостях в iOS заявлением, в котором подтвердила существование вредоносной кампании, но опровергла утверждения о длительности атаки. По версии Apple, кампания длилась два месяца, а не два года.
Читать полностью »

Facebook и Microsoft запускают конкурс по обнаружению deepfake - 1

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake).

Как сообщается в блоге Facebook, в рамках проекта, который получил название Deepfake Detection Challenge, Facebook поручит исследователям создавать реалистичные дипфейки. После этого участники конкурса будут прорабатывать алгоритмы обнаружения deepfake. Авторы лучших получат гранты. Призовой фонд проекта — $10 миллионов.
Читать полностью »

Орегонский университет предлагает бороться с deepfake с помощью мышей - 1

В рамках борьбы с deepfake — видео и аудио, созданных с помощью искусственного интеллекта — исследователи Орегонского университета тестируют одну из самых необычных идей. Группа учёных пытается научить мышей распознавать незаметные для человеческого слуха различия в речи, чтобы затем обучить машину этому механизму распознавания.

Исследователи обучили мышей понимать небольшой набор фонем, которые отличают одно слово от другого. Мышки получали награду каждый раз, когда они правильно идентифицировали звуки, что составило до 80% случаев.

«Мы научили мышей определять разницу между звуками, окруженными разными гласными, в разных контекстах. Мы считаем, что есть возможность обучить мышей распознавать ложную и реальную речь», — рассказал Джонатан Сондерс, один из исследователей проекта, изданию BBC.
Читать полностью »

Министерство обороны США попытается решить проблему deepfake - 1

Управление перспективных исследовательских проектов Министерства обороны США (DARPA) ищет средства для быстрого обнаружения deepfake в условиях «растущей угрозы крупномасштабных дезинформационных атак».

На прошлой неделе Управление объявило о том, что 28 августа проведёт день соискателей. Цель мероприятия — дать больше информации о программе Semantic Forensics (SemaFor). Программа, по словам DARPA, будет разрабатывать способы обхода некоторых слабых сторон современных deepfake-инструментов.

«Методы обнаружения, которые использовались раньше, часто можно обмануть из-за их ограниченных ресурсов, — говорится в объявлении DARPA. — Однако существующие алгоритмы автоматического генерирования и манипулирования мультимедиа в значительной степени подвержены семантическим ошибкам».
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js