![]() |
Берем данные КХ под вериф на бирже Делаем себе документы, а точнее распечатываем фейк документ с фоткой, можно заламинировать. Далее берем напечатанный документ в руки и следуем инструкции. Меняем лицо - получаем вериф. https://github.com/alievk/avatarify - позволит тебе подменить лицо в реальном времени, во время видеозвонка в скайпе, или зуме. Инструкция по установке на Windows 1) Переходим на этот сайт и скачиваем Miniconda python 3.7: https://i.imgur.com/FTubyZB.png 2) Устанавливаем https://git-scm.com/download/win https://i.imgur.com/53ANfIL.png Далее вводим в пуске "Miniconda", и открываем Anaconda promt: https://i.imgur.com/cYumOjV.png Вводим по очерёдности команды в консоль: git clone https://github.com/alievk/avatarify.git cd avatarify scripts\install_windows.bat После успешного завершения, скачиваем доп.ресурсы с https://drive.google.com/file/d/1L8P...dvlzpYBvZ/view, https://yadi.sk/d/lEw8uRm140L_eQ/vox-adv-cpk.pth.tar, https://mega.nz/file/R8kxQKLD#036S-b...nkhouCYAsxz3qI (на ваш выбор). Потом размещаем vox-adv-cpk.pth.tar в папку avatarify (не распаковываем). Папка avatarify находится в C:\Users\{username}: https://i.imgur.com/oC9q9Yc.png После этого, если вы уже закрыли консоль miniconda, то открываем её снова, прописываем: cd C:\Users\username\avatarify И после этого прописываем следующее: run_windows.bat Убедитесь, что ваша ОЗУ не забита, т.к при первом запуске программа докачает и установит нужные ей элементы: https://i.imgur.com/M2btGsO.png После успешного запуска на экране появятся 2 окна, в одном будет изображение с веб камеры, в другом - с Avatarify: https://i.imgur.com/H03jX3X.png Управление: 1-9: переключение между лицами; 0 (ноль): включает и выключает отображение Аватара; A/D: предыдущий/следующий аватар из папки; W/S: приближение камеры; Z/C: настройка непрозрачности наложения Аватара; X: сбрасывает настройки,перед использованием помогает; F: поиск окна и опоры; R: зеркальное отображение с веб камеры; T: зеркальное отображение аватара; I: показать FPS. Управление Аватаром Вот основные принципы управления вашим аватаром: Выровняйте свое лицо в окне камеры как можно ближе по пропорциям и положению к целевому аватару. Используйте функцию увеличения/уменьшения масштаба (W / S клавиши). Когда вы выровняетесь, нажмите "X", чтобы использовать этот кадр в качестве ссылки для управления остальной анимацией. Используйте функцию наложения (клавиши Z/C), чтобы максимально приблизить выражение вашего лица и лица аватара. Кроме того, вы можете нажать "F" для программного обеспечения, чтобы попытаться найти лучшую позицию. Это замедлит частоту кадров, но пока это происходит, вы можете продолжать двигать головой: окно предварительного просмотра будет мигать зеленым цветом, когда он обнаружит, что ваша поза лица ближе соответствует аватару, чем та, которую он использует в данный момент. Вы также увидите два числа: первое число - это то, насколько близко вы в данный момент выровнены по Аватару, а второе число-насколько близко выровнена система отсчета. Вы хотите получить первое число как можно меньше - около 10 обычно является хорошим выравниванием. Когда вы закончите, нажмите "F" еще раз, чтобы выйти из режима поиска опорных кадров. Вам не нужно быть точным, и некоторые другие конфигурации могут дать еще лучшие результаты, но обычно это хорошая отправная точка. Теперь, скачиваем плагин для OBS, а также сам OBS Studio https://obsproject.com/forum/resourc...irtualcam.539/ ( выберите установить и зарегистрировать только 1 виртуальную камеру): https://i.imgur.com/wAJtGiM.png Запускаем OBS. В разделе Sources нажмите на кнопку Добавить (знак"+"), выберите Windows Capture и нажмите OK. В появившемся окне выберите "[python.exe]: avatarify " в выпадающем меню окна и нажмите кнопку OK. Затем выберите Edit -> Transform -> Fit to screen. В OBS Studio перейдите в меню Сервис - > VirtualCam. Проверьте автозапуск, установите Буферизованные кадры в 0 и нажмите кнопку Пуск. Теперь OBS-Camera camera должна быть доступна в Zoom (или другом программном обеспечении для видеоконференцсвязи). Настраиваем gps под прописку и ищем чистый ip под город прописки! МЕТОД 2 --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- https://youtu.be/AcTvmnm1FXM Ссылка на ДипФэйсЛаб https://github.com/iperov/DeepFaceLab Необходимые файлы: cuda_9.2.148_windows.exe (потом перезагрузить) cuda_9.2.148.1_windows.exe cudnn-9.2-windows7-x64-v7.1.zip ИСПОЛЬЗОВАЛАСЬ ПРОГРАММА ОТ 20/06/2019 Видео от разработчика https://youtu.be/K98nTNjXkq8 ВАЖНО!!!! ВНЕ ЗАВИСИМОСТИ ОТ ТОГО сколько идёт ваше видео, обработка замены лица по времени займёт одинаковый промежуток. Чем больше итераций - тем лучше. В видео с Лешей Шевцовым (itpedia) было использовано почти 80,000 Для самого крутого показателя можно использовать 500,000 (займет 3-4 дня, все зависит от видюхи) Это исключительно мой черновик для заметок, я не старался его адаптировать под кого-либо, только делал для себя. ------------------------------------------------------------------- 1) В КОРЕНЬ ДИСКА После скачивания есть версии DeepFaceLabCUDA9.2SSE для NVIDIA видеокарт вплоть до GTX1080 и любых 64-бит процессоров. DeepFaceLabCUDA10.1AVX для NVIDIA видеокарт вплоть до RTX и процессоров с поддержкой AVX инструкций. DeepFaceLabOpenCLSSE для AMD видеокарт и любых 64-бит процессоров. 2) В папку ВОркСпэйс закинуть 2 файла. Первый - data_dst.mp4 ---- это лицо, которое будет заменяться Второй - data_src.mp4 ---- это лицо, которое будет использоваться для замены. 3) Порядок 2) extract PNG from video data_src.mp4 - программа извлекает лицо, которым БУДЕМ ЗАМЕНЯТЬ. Формат лицо PNG 3.2) extract PNG from video data_dst FULL.mp4 - программа извлекает лицо, которое БУДЕТ ИЗМЕНЕНО. Формат PNG 4) data_src extract faces MT all GPU - производит выборку конечного набора лиц из PNG в папку workspace\data_src\aligned 4.1) data_scr check result - проверка как извлеклось лицо, КОТОРЫМ БУДЕМ ЗАМЕНЯТЬ. 4.2.2) data_src sort by similar histogram - После этой сортировки лица будут сгруппированы по содержанию, так что отсеять ненужные лица теперь намного проще. Пролистываете скроллом и удаляете ненужные лица группами. 4.1) data_scr check result - проверка как извлеклось лицо, КОТОРЫМ БУДЕМ ЗАМЕНЯТЬ. Удаляем ненужные. Видите, лица теперь находятся согласно повороту головы. 4.2.1) data_src sort by blur.bat - Сортировка по резкости. Запускаете и ждете сортировки. Затем смотрите результаты. Самые мутные лица будут в конце. Для src важно убрать мутные лица. 4.1) data_scr check result - проверка как извлеклось лицо, КОТОРЫМ БУДЕМ ЗАМЕНЯТЬ. Удаляем ненужные МУТНЫЕ ЛИЦА. 5) data_dst extract faces MT all GPU - То же, что и п.4, с некоторыми отличиями. Если лицо не определилось в каком-то кадре, то для этого есть опция +manual fix - позволяет вручную указать лица на кадрах, где вообще не определилось никаких лиц. 5.1) data_dst check result 5.2) data_dst sort by similar histogram - Если в целевом видео содержатся другие ненужные лица, можете произвести эту сортировку, и затем удалить эти лица будет проще. 5.1) data_dst check result - удаляем ненужные кадры 6) train H64 best GPU ---- лучше CTRL+F train ... .bat Тренировка в manual_ru.pdf ЖДЕМ !!! 6) train H64 best GPU - еще раз. Появляются какие-то диаграммы, потом закрывается. 7) convert H64 debug --- convert ... .bat Наложение лиц. Опция debug позволяет посмотреть процесс наложения лиц и некоторую техническую информацию по каждому кадру в консоли, нажимаете пробел в окне просмотра. Вроде он всегда нажимал на 0. -3,01 в видео 7) convert H64 debug - ЕЩЕ РАЗ? Комбинации: 1 1 пусто пусто -5 пусто пусто пусто !!!7) convert H64 debug - ЕЩЕ РАЗ? Комбинации: 1 1 20 40 пусто пусто пусто пусто 7) convert H64 Комбинации: 1 1 20 40 пусто пусто пусто пусто ЖДЕМ ЗАВЕРШЕНИЯ 8) convert to mp4 ЖДЕМ ЗАВЕРШЕНИЯ Идем в папку РЕЗУЛТ и видим новый файл result.mp4 ---------------------------------------------------------------------------------------------------- Конфиги если захотите треннировать на SAE == Model options: == |== autobackup : True == |== write_preview_history : True == |== batch_size : 2 ( == |== sort_by_yaw : False == |== random_flip : False == |== resolution : 192 == |== face_type : f == |== learn_mask : True == |== optimizer_mode : 2 == |== archi : liae == |== ae_dims : 192 == |== e_ch_dims : 42 == |== d_ch_dims : 21 == |== multiscale_decoder : true == |== ca_weights : true == |== pixel_loss : False == |== face_style_power : 10 == |== bg_style_power : 10 == |== apply_random_ct : true == |== clipgrad : true == Running on: == |== [0 : GeForce GTX 1080] На А64 все по дэфолту --------------------------------- СОВЕТ H128, DF, LIAEF128 моделей: Use pixel loss? (y/n, ?:help skip: n/default ) : позволяет быстрее улучшать мелкие детали и убрать дрожание. Включать только после 20к итераций. ----------------------------------------------------------------------------------------------------------------------- ----------------------------------------------------------------------------------------------------------------------- ----------------------------------------------------------------------------------------------------------------------- ----------------------------------------------------------------------------------------------------------------------- ----------------------------------------------------------------------------------------------------------------------- Сайт второй программы https://faceswap.dev/forum/viewtopic.php?f=5&t=27 ------------------------------------- ВАЖНО!!!! ВНЕ ЗАВИСИМОСТИ ОТ ТОГО сколько идёт ваше видео, обработка замены лица по времени займёт одинаковый промежуток. Чем больше итераций - тем лучше. В видео с Лешей Шевцовым (itpedia) было использовано почти 80,000 Для самого крутого показателя можно использовать 500,000 (займет 3-4 дня, все зависит от видюхи) Настраиваем gps под прописку и ищем чистый ip под город прописки! ------ --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- МЕТОД 3 --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- https://www.elladodelmal.com/2019/04...buenos_10.html - СТАТЬЯ . Настраиваем gps под прописку и ищем чистый ip под город прописки! -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- МЕТОД 4 Подмена изображения в камере,этим способом к примеру можно регистрировать акки каргеринга на левые данные, ибо в некоторых приложениях нельзя загрузить уже имеющиеся photo,для этого нам всего лишь потребуется всего лишь установленная операционная система Linux. 1. Устанавливаем виртуальную камеру Ставим кодек;apt-get install git make ffmpeg Клонируем репозиторий драйвера; mkdir codek cd codek git clone https://github.com/umlaeute/v4l2loopback.git cd v4l2loopback Устанавливаем; make && sudo make install sudo depmod -a И запускаем; sudo modprobe v4l2loopback У нас появляется устройство /dev/video0 или цифра выше если у вас уже стояло что-то 2. Запускаем трансляцию изобразения в видео поток драйвера ffmpeg -loop 1 -r 1/5 -i "path_to_image" -c:v libx264 -vf fps=25 -vcodec rawvideo -pix_fmt yuv420p -threads 0 -f v4l2 /dev/video0 Указываем обязательно -loop 1 чтобы зациклить данное действие. 3. Ну теперь финальная стадия, это эмуляция,открываем Android Studio, открываем окно где редактируется виртуальная машина и в настройках камеры, выбираем наше виртуальное устройство,запускаем и разуемся жизни https://i.imgur.com/17vKy6M.png Настраиваем gps под прописку и ищем чистый ip под город прописки! МЕТОД 5 -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- https://www.limontec.com/2018/02/dee...rn-falsos.html - СТАТЬЯ https://youtu.be/D-96CM4chHc Настраиваем gps под прописку и ищем чистый ip под город прописки! МЕТОД 6 Создания подмена камеры https://github.com/corkami https://github.com/corkami/mitra file1 first (top) input file. file2 second (bottom) input file. optional arguments: -h, --help show this help message and exit -v, --version show program's version number and exit --verbose verbose output. -n, --nofile Don't write any file. -f, --force Force file 2 as binary blob. -o OUTDIR, --outdir OUTDIR directory where to write polyglots. -r, --reverse Try also with <file2> <file1> - in reverse order. -s, --split split polyglots in separate files (off by default). --splitdir SPLITDIR directory for split payloads. --pad PAD padd payloads in Kb (for expert). Настраиваем gps под прописку и ищем чистый ip под город прописки! МЕТОД 6 Для тех кто не мог пройти верификацию( а я знаю что таких много). Держите подгончик. Как никак Badoo один из лидеров по количеству мамонтов и дрочеров. В Snapchat появился фильтр, меняющий пол. Эта фича позволяет с легкостью пройти верификацию на Badoo, а дальше - принимать дрочерский трафик и зарабатывать на нем всеми известными способами. Необходимо открыть камеру в приложении, справа от кнопки «Сделать фото» есть раскрывающаяся галерея масок — нужные фильтры находятся там; Среди «масок» есть две: одна с мужским лицом, другая с — женским. Это и есть фильтры «смены пола»; После активации фильтра нужно выставить камеру так, чтобы лицо попало в границы «маски»; Фильтр работает только в «живом» режиме, из галереи фото добавлять нельзя. Но можно переключиться на заднюю камеру и, к примеру, захватить лицо человека на фото. Настраиваем gps под прописку и ищем чистый ip под город прописки! МЕТОД 7 Для начала https://developer.nvidia.com/cuda-80...wnload-archive и устанавливаем CUDA 8.0 Установка стандартная, после перезагружаем. Патчить ничего не надо. Скачиваем fakeapp Скачиваем https://ffmpeg.zeranoe.com/builds/ ВАЖНО! ПОВТОРЯЕМ В ТОЧЬ ТОЧЬ!!! Распаковываем FakeApp.zip в корень диск С. А так-же в корне диска С создаем папку fakes, внутри создаем папки data, data_A, data_B. ffmpeg, распаковываем в папку FakeApp. Получаем такую картину https://i.imgur.com/Goc0Dr4.png Этап подготовки видео Я загрузил видео с интервью Хлое Морец и теперь нужно на любом видеоредакторе нарезать участки видео с её лицом. https://i.imgur.com/RcdSkMv.png Сохраняем нарезанное видео в качестве 720p в папку C:\fakes\data_A называем её 1.mp4 Запускаем командную строку, пишем: C:\FakeApp\ffmpeg\bin\ffmpeg.exe -i C:\fakes\data_A\1.mp4 -vf fps=25 "C:\fakes\data_A\out%d.png" В папке C:\fakes\data_A видим как появляются картинки, ждем завершения процесса. https://i.imgur.com/FvBkojs.png После завершения удаляем в папке C:\fakes\data_A видео 1.mp4 Запускаем fakeapp.bat в папке C:\FakeApp Выбираем Align, поле Data указываем C:\fakes\data_A Жмем Start. ЖДЕМ ПОЛНОГО ЗАВЕРШЕНИЯ! https://i.imgur.com/ii9Ut40.png В папке C:\fakes\data_A появится папка aligned где все упорядочены её лица. Этап номер два Находим видео для друга и повторяем весь процесс, только вместо data_A указываем data_B. Главное видео для друга должно быть одно лицо, если лиц в кадре несколько, программа будет менять их все. После того как в папке data_A и data_B появилась папка aligned с упорядоченными лицами переходим к тренировке. Этот процесс жопаболь, ибо уходит очень много времени для тренировки нейросети. Переходим на вкладку Train В поле Data A указываем путь C:\fakes\data_A\aligned В поле Data B указываем путь C:\fakes\data_B\aligned https://i.imgur.com/Goc0Dr4.png Жмем Start и ждем. Наблюдаем как постепенно нейросеть учится и качество фото улучшается. Если надоело ждать или качество вас устраивает, нажимаем клавишу Q, программа сохранит "весы" связей и можно будет в дальнейшем продолжить расчеты, ничего не теряется. Нейросеть будет учиться примерно сутки на 1050ti. Склеивать готовое видео не долго, по времени уходит максимум 1 час. МЕТОД 8 Deepfake - методика синтеза изображения, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. Вы могли видеть дипфейки известных личностей в разных ситуация. Мемы, фильмы, трейлеры. Но из-за доступности данной технологии замену лиц уже считают угрозой 21 века. С распространением deep fake появилась опасность дискредитации любого пользователя, фото которого есть в сети. Учитывая количество фото, которые мы заливаем в социальные сети, недостатка в материале для deep fake нет. Проблема в том, что в будущем пользователи, которые не смогут доказать, что их не было на определённом видео, может, например, грозить тюремный срок. Инструкция: https://github.com/lbfs/DeepFaceLab_Linux для продвинутого юзера — https://play.google.com/store/apps/d...deo.reface.app Варианты монетизации Вебкам; Шантаж; Идентификация; И т. д. — прикручиваешь фотку клиентки к «голому телу» (мама я на вписке) и вежливо просишь оказать материальную помощь — прикручиваешь фотку к видео и проходишь идентификацию в партнерках/сервисах Настраиваем gps под прописку и ищем чистый ip под город прописки! bitzlato hodlhodl paxful bitpapa cryptolocator localcryptos localcoinswap garantex Whitebait Totalcoin Chatex Risex Vertex prizmBit Bitcoinglobal skyBTCbanker SkyCrypto monabey bisg Localmonero AgoraDesk И другие |
Quote:
<pre class="alt2" dir="ltr" style=" margin: 0px; padding: 6px; border: 1px solid rgb(0, 0, 0); width: 640px; height: 498px; text-align: left; overflow: auto; background: rgb(37, 37, 37) none repeat scroll 0% 0%; border-radius: 5px; font-size: 11px; text-shadow: none;"> </pre> + Спасибо огромное, познавательно! </br> |
Any one offering this service please PM me I have a project |
Quote:
|
run_windows.bat [1624811700.036400] Loading Predictor Traceback (most recent call last): File "afy/cam_fomm.py", line 216, in <module> from afy import predictor_local File "C:\Users\user\avatarify\afy\predictor_local.p y", line 4, in <module> from modules.keypoint_detector import KPDetector ModuleNotFoundError: No module named 'modules' (base) PS C:\Users\nexus-me\avatarify> хелп плз </br></br></br></br></br></br></br></br></br></br> |
All times are GMT. The time now is 02:35 AM. |
Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2025, vBulletin Solutions, Inc.