Орегонский университет предлагает бороться с deepfake с помощью мышей

в 10:51, , рубрики: Deepfake, deepfakes, искусственный интеллект, машинное обучение, обработка изображений, Работа с видео

Орегонский университет предлагает бороться с deepfake с помощью мышей - 1

В рамках борьбы с deepfake — видео и аудио, созданных с помощью искусственного интеллекта — исследователи Орегонского университета тестируют одну из самых необычных идей. Группа учёных пытается научить мышей распознавать незаметные для человеческого слуха различия в речи, чтобы затем обучить машину этому механизму распознавания.

Исследователи обучили мышей понимать небольшой набор фонем, которые отличают одно слово от другого. Мышки получали награду каждый раз, когда они правильно идентифицировали звуки, что составило до 80% случаев.

«Мы научили мышей определять разницу между звуками, окруженными разными гласными, в разных контекстах. Мы считаем, что есть возможность обучить мышей распознавать ложную и реальную речь», — рассказал Джонатан Сондерс, один из исследователей проекта, изданию BBC.

Идея проекта состоит в том, чтобы понять, как мыши идентифицируют звуки, и научить этому машину. Слуховая система мышей похожа на человеческую за исключением того, что мыши не понимают значения слов, которые они слышат. Это отсутствие понимания становится бонусом при обнаружении искусственно созданной речи. Deepfake-аудиофайл может содержать небольшую ошибку, например, звук «б», вместо «г». Люди могут не заметить эту неточность, потому что мы извлекаем смысл из слов и предложений целиком. Мышь же, не понимая значения слова, ошибку не пропустит.

«Мы считаем, что мыши являются многообещающей моделью для изучения обработки звука, — говорится в официальном документе исследователей, который они представили на конференции Black Hat в Лас-Вегасе. — Изучение механизмов, с помощью которых слуховая система млекопитающих обнаруживает поддельные аудиосигналы, может послужить основой для алгоритмов обнаружения подделки».

Ранее Управление перспективных исследовательских проектов Министерства обороны США (DARPA) объявило о том, что 28 августа проведёт специальное мероприятие, в рамках которого расскажет о своей программе Semantic Forensics (SemaFor). Программа будет разрабатывать способы обхода некоторых слабых сторон современных deepfake-инструментов.

«Однако существующие алгоритмы автоматического генерирования и манипулирования мультимедиа в значительной степени подвержены семантическим ошибкам», — отметили в DARPA.
Под «семантическими ошибками» специалисты Управления имеют в виду ситуации, когда в искусственно сгенерированных изображениях допускаются просчёты — например, когда у человека с искусственно сделанным лицом оказываются «несоответствующие серьги» или другие неправильные детали.

Автор: AnnieBronson

Источник


* - обязательные к заполнению поля