![]() |
Фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков. https://www.securitylab.ru/upload/ib...6ddbac9be4.png С развитием новых технологий дипфейков определить достоверность той или иной информации, публикуемой в интернете, становится значительно сложнее. Подобные технологии позволяют с легкостью манипулировать изображениями и видео за счет использования нейронных сетей, способных симулировать речь, движения и внешний вид людей. В этой связи группа ученых из Бостонского университета разработала алгоритм, позволяющий защитить изображения от использования в качестве основы дипфейков. Алгоритм накладывает на изображение или видео невидимый фильтр, и если кто-то попытается использовать нейронную сеть для модификации этих файлов, они либо останутся без изменений, либо станут полностью искаженными - фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков. Разработчики проекта https://github.com/natanielruiz/disrupting-deepfakesисходный код технологии на GitHub, а также опубликовали видео, демонстрирующее ее работу. https://youtu.be/7_7r4Ng4-bE |
Алгоритм накладывает на изображение или видео невидимый фильтр, и если кто-то попытается использовать нейронную сеть для модификации этих файлов, они либо останутся без изменений, либо станут полностью искаженными - фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков. Это временное решение. Нейронные сети будут способны обходить эти фильтры. Скоро дойдем до того, что на фотках или видео будет размещаться капча. Хотя у Андрюши она уже есть на лбу, после его видоса )) |
All times are GMT. The time now is 12:17 AM. |
Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2025, vBulletin Solutions, Inc.