![]() |
Ученые смогли обмануть современные детекторы дипфейков путем внедрения в видеоролик так называемых «состязательных примеров». https://www.securitylab.ru/upload/ib...d633a20858.png Университеты, организации и технологические гиганты, такие как Microsoft и Facebook, работают над инструментами для обнаружения дипфейков, которые призваны предотвратить их использование в целях дезинформации и распространения вредоносных медиа. Однако команда ученых из Калифорнийского университета в Сан-Диего на конференнции WACV 2021 сообщила, что детекторы дипфейков все еще можно обмануть путем внедрения входных данных (состязательные примеры) в каждый видеокадр. По словам экспертов, состязательные примеры (adversarial examples) представляют собой манипуляции с изображениями, которые могут привести к ошибкам в работе систем искусственного интеллекта. Большинство детекторов работают, отслеживая лица на видео и отправляя обрезанные данные в нейронную сеть. Затем система детектора определяет, является ли видео подлинным, проанализировав элементы, которые плохо воспроизводятся в дипфейках, например, моргание. Как обнаружили ученые, создавая состязательные примеры лица и вставляя их в каждый видеокадр, они смогли обмануть современные детекторы дипфейков. Кроме того, разработанная ими методика работает даже для сжатых видео и даже в том случае, если у них не было полного доступа к модели детектора. |
All times are GMT. The time now is 08:58 AM. |
Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2025, vBulletin Solutions, Inc.