Безусловно, Deepfake-видео вызывают опасения из-за их потенциальных катастрофических последствий. Однако, независимо от того, выберете вы принять эту технологию или оставиться скептиком, знание о ней может только вам помочь.
В отличие от распространенного мнения, Deepfake не является по своей сути злонамеренным. Фактически, это замечательное технологическое развитие, которое вызвало значительные потрясения. Понимание потенциала технологии GAN и ее продуктивного применения для человечества может помочь снять страх, окружающий Deepfake.
Как мудро сказал Йода: «Страх — это путь к Темной стороне. Страх ведет к гневу, гнев ведет к ненависти, ненависть ведет к страданиям».
У Deepfake есть темная сторона, но чем более знакомым вы становитесь с концепцией и технологией, тем меньше контроля она будет иметь над вами. Фактически, вы даже можете исследовать положительные аспекты Deepfake и использовать их как актив, а не как обязательство.
В настоящее время политические институты предпринимают необходимые меры для ограничения доступа к программному обеспечению Deepfake, доступному онлайн. Хотя это ограничивает доступность, мы обнаружили одно программное обеспечение, которое все еще доступно. (хотя его доступность может быть недолгой)
Важные моменты перед созданием Deepfake-видео
Если у вас есть средние компьютерные знания и опыт работы с программным обеспечением, создание Deepfake-видео не будет слишком сложной задачей. Программное обеспечение выполняет большую часть работы, и вам нужно только ввести данные и выполнить их. Хотя существуют варианты программного обеспечения для обработки аудио, требующие написания текста, это руководство в основном сосредоточено на морфинге лица.
Прежде чем продолжить, важно понимать, что использование чьей-либо фотографии без его разрешения или публикация ее в общественном доступе категорически запрещены. Это относится ко всем формам медиа, включая видео, фотографии и аудио, так как это нарушает основные права человека и может нанести вред даже знаменитостям и общественным деятелям.
Более того, важно отметить, что Deepfake-видео часто используется для политической пропаганды и хаоса. Чтобы избежать любых осложнений, мы советуем избегать такого контента.
Причина, по которой мы подчеркиваем этическое использование, заключается не только в глобальном кризисе, вызванном неправильным использованием программного обеспечения Deepfake, но и потому, что страх, окружающий эту технологию, уже закреплен в людях. Однако те, кто стремится причинить вред и хаос, найдут альтернативные способы, если не через Deepfake. Поэтому, чем более информированы мы о том, как работает Deepfake, тем меньше власти он имеет над нами.
Требования для создания Deepfake-видео
Для создания Deepfake-видео вам необходима соответствующая аппаратная поддержка. Убедитесь, что у вас есть следующее перед продолжением:
Аппаратное обеспечение
- Для обеспечения плавной обработки рекомендуется иметь современный процессор с не менее чем 8 ГБ оперативной памяти. Больше оперативной памяти предпочтительно для более быстрой обработки.
- Для обработки графики рекомендуется использовать графический процессор Nvidia или AMD с не менее чем 2 ГБ оперативной памяти.
- Операционная система должна быть Windows 7 или новее.
- Рекомендуется использовать процессор Intel Core i5 или выше.
Программное обеспечение
- Для этого руководства рекомендуется скачать программное обеспечение DeepFaceLab с GitHub.
- Некоторым графическим картам NVIDIA может потребоваться установка инструментария CUDA. Вы можете скачать его для вашего конкретного устройства по предоставленной ссылке.
Требования к исходному и конечному видео
- Исходное и конечное видео должны иметь высокое разрешение, предпочтительно 4K. Однако также можно использовать видео с разрешением 1080p.
- Видео должно иметь достаточную яркость для четкой видимости отдельных лиц.
- Лица, которые вы хотите заменить, должны иметь некоторые сходства в терминах таких характеристик, как цвет кожи, волосы, борода и аксессуары, такие как очки и шляпы.
- Лицо, которое нужно извлечь и заменить, не должно быть слишком далеко в видео, но оно также не должно быть крупным планом.
- Видео должно содержать два лица с различных углов и выражениями лица.
- Для того, чтобы программное обеспечение точно отображало желаемое лицо, видео должно быть достаточно длинным, чтобы полностью просканировать его, что обычно занимает около 2-3 минут.
- Может быть проще модифицировать видео, в котором объект не слишком сильно движется.
Для достижения наилучших результатов рекомендуется использовать видео из интервью, так как они предоставляют крупные планы субъекта без большого количества движения. Это упрощает сканирование и извлечение наборов лиц программным обеспечением без ущерба для качества видео.
Как создать видео deepfake
Процесс создания видео deepfake включает три основных аспекта: извлечение данных, обучение нейронной сети и слияние исходного и конечного файлов. Эти аспекты взаимосвязаны и подвержены влиянию факторов, таких как качество видео, время обучения и продолжительность видео. Если вы хотите, чтобы итоговый результат имел высокое качество, вам необходимо уделить достаточное время обучению нейронных сетей. Кроме того, если желаемое видео длительное, может быть компромисс в качестве.
Важно иметь в виду, что достижение желаемых результатов может потребовать нескольких попыток, и качество может быть не идеальным с первого раза. С практикой и опытом становится легче достичь желаемых результатов.
Шаг 1: Скачать и Извлечь
- Найдите подходящий торрент-файл DeepFaceLab для вашей платформы в разделе «Релизы».
- Дважды щелкните по загруженному файлу .EXE, чтобы извлечь файлы на ваше устройство.
- После извлечения вы увидите две папки: «internal» и «workspace», а также некоторые пакетные файлы. Папка «workspace» важна для процесса конвертации. Внутри этой папки вы найдете два видеофайла .MP4: «data_dst» (целевое видео) и «data_src» (исходное видео для извлечения лица).
- Чтобы начать с чистого листа, вернитесь к папке, где вы извлекли файл .EXE, и запустите пакетный файл «clear workspace». Это очистит рабочую область и подготовит ее для сохранения ваших файлов.
- Поместите ваше исходное и целевое видео внутрь папки «workspace» и переименуйте их как «data_dst» (окончательный продукт) и «data_src» (видео, используемое для замены лица).
- Теперь следуйте следующим шагам, чтобы разделить кадры обоих видео в отдельные папки.
- Запустите «extract images from video data_src» в консоли, чтобы извлечь кадры из исходного видео.
- Затем запустите «extract images from video data_dst FULL FPS», чтобы извлечь кадры из целевого видео.
- Консоль автоматически закроется, как только кадры будут извлечены.
Шаг 2: Извлечение Лица
- Запустите «data_src faceset extract» в консоли.
- При запросе типа лица введите «wf».
- Проверьте качество извлеченных кадров, запустив «data_src view aligned result». Вы найдете извлеченные наборы лиц из исходного видео в папке «aligned», внутри папки «data_src». Если есть неправильные или ненужные кадры, удалите их из этой папки.
- Повторите вышеуказанный процесс для видео data_dst, запустив «data_dst faceset extract».
- При запросе типа лица введите «wf».
- Просмотрите извлеченные кадры из целевого видео, запустив «data_dst view aligned results». Вы найдете извлеченные наборы лиц из целевого видео в папке «aligned», внутри папки «data_dst». Удалите нежелательные кадры из этой папки.
- При желании, вручную маскируйте лица из исходного и целевого видео для лучших результатов.
- Чтобы маскировать наборы лиц из целевого видео, запустите «data_dst mask — edit» в консоли. Установите граничные точки для отображения каждого набора лиц отдельно. Убедитесь, что вы отображаете только внутреннюю часть лица, которую нужно замаскировать.
Чтобы не касаться волос человека, держитесь на некотором расстоянии от них.
Аналогично, чтобы скрыть лица в исходном видео, выполните команду «data_src mask — edit».
Часть 3: Обучение
Если вы новичок, выполните пакетный файл «train H64» (ожидайте снижение качества).
После открытия консоли нажмите Enter/Return, чтобы выбрать параметры по умолчанию.
Модель начнет загружаться и отобразит информацию, такую как параметры сессии и размер набора данных.
Окно предварительного просмотра откроется после загрузки модели. Наблюдайте процесс обучения кадр за кадром.
Эффективность обучения можно определить по значению потери файла, которое должно быть менее 0.2.
Нажмите Enter, чтобы завершить обучение, когда вы будете удовлетворены результатами.
Часть 4: Объединение и конвертирование
Запустите «convert H64», чтобы конвертировать модель H64 из пакетных файлов.
Выберите все параметры по умолчанию, нажимая Enter/Return.
В папке «data_dst» будет создана новая папка с названием «merge».
Теперь запустите пакетный файл «converted to mp4».
Ищите файл «result.mp4» внутри папки ‘workspace’. Это финальное видео deepfake, которое вы создали.
Это все, что вам нужно знать, чтобы создать видео deepfake самостоятельно.