Что такое дипфейки, как они работают и как их создавать
Помните видео с Киану Ривзом, гуляющим по Санкт‑Петербургу? На самом деле актера там не было — его лицо просто подставили к телу другого человека. Но получилось очень убедительно. Так работают дипфейки — с их помощью можно «оживить» любого человека, заставив его говорить и делать то, чего на самом деле не было. Расскажем, как создаются и где применяются дипфейки, а также как создать свой.
Как и зачем создаются дипфейки и где применяются
Дипфейк (deepfake, от англ. deep learning, «глубокое обучение» + fake, «подделка») — это технология создания убедительно выглядящих обманных видео или аудио. Сегодня это делается с помощью искусственного интеллекта.
Как создается дипфейк
Для создания дипфейка используются алгоритмы машинного обучения — генеративно-состязательные сети (GAN, generative adversarial network).
Подробный рассказ о работе GAN потребует отдельной статьи. Если кратко, то это алгоритм, состоящий из двух нейронных сетей. Одна — генеративная — создает изображения. Другая тут же «соревнуется» с ней — потому и называется состязательной, — стараясь отличить правильные, похожие на человека, изображения от неправильных. Генеративная часть алгоритма должна сделать так, чтобы состязательная не отличила дипфейк от оригинала. На основе полученных данных создается новый видеоролик, где персонаж с лицом реального человека говорит и действует так, как нужно автору ролика.
Посмотрите, как создавались некоторые из виральных роликов с «Томом Крузом», которые заполонили TikTok в 2021 году.
Конечно, актер, который выступал в роли «тела» Тома Круза (Майлз Фишер), и так похож на него, но всё же их можно отличить. А после работы GAN уже нельзя — нейросеть делает так, что лицо Тома Круза абсолютно органично «присоединяется» к телу Майлза Фишера.
Разновидности дипфейков
Существует несколько видов дипфейков:
- Подмена лица (face swap) — лицо одного человека «накладывается» на лицо другого в видео. Мы такие показали выше. Еще один пример такого дипфейка — замена лиц актеров «Друзей» (Friends) на лицо известного участника интеллектуальных игр Александра Друзя.
Получился смешной каламбур — сериал назвали «Друзи»
- Поддельная речь (synthetic speech) — синтез речи на основе голоса реального человека. Чаще всего такой вид дипфейка делается с помощью двух технологий — синтеза речи из текста (Text-to-Speech, TTS) и клонирования чьего-либо существующего голоса (voice cloning). Пример — довольно печальный. В 2019 году в британской энергетической компании был обманут сотрудник. Ему позвонили мошенники и сымитировали с помощью AI голос его босса. Потребовали перевести несколько сотен тысяч долларов — что он и сделал.
- Полностью сгенерированное видео — с подменным лицом и с синтезированной речью. Пример — речь бывшего президента США Барака Обамы об опасностях дипфейков на Buzzfeed:
Где используются дипфейки
Дипфейки уже активно применяются:
- в киноиндустрии — для «омоложения» актеров, воссоздания умерших знаменитостей (если Том Круз вдруг решит перестать сниматься в кино, его получится заменить дипфейком);
- в развлекательных целях — для розыгрышей и шуток в социальных сетях. Пример — видео канала Channel 4 Entertaiment с «альтернативным новогодним поздравлением» от королевы Елизаветы II, вышедшим в 2020 году:
«Королева» говорит, что BBC якобы не дает ей высказываться откровенно, поэтому она благодарна Channel 4 Entertainment за такую возможность. Дальше она показывает несколько танцевальных движений, которые отрепетировала для своего TikTok. И конечно, как и Барак Обама, предупреждает, что-то, что мы видим и слышим, не всегда является отображением действительности
Как отличить дипфейк от настоящего видео
Видеодипфейки пока не идеальны: в них можно заметить незначительные задержки и «зависания» изображения, иногда — несоответствие интонации и эмоций — иногда лицо выглядит «каменным», при этом человек говорит о чем-то волнующем. Иногда персонажи-дипфейки странно моргают или вообще не моргают.
Еще иногда дипфейки содержат артефакты. Артефакты — это неумышленные подсказки искусственности: размытия бровей, «лишние» уши и носы и прочее.
На этом фото, сгенерированном нейросетью, видны странные очертания глаза и рта слева от лица женщины. С видеодипфейками случается то же
Таких артефактов, впрочем, по мере совершенствования технологий становится всё меньше и меньше — заметить их зачастую могут только такие же нейросети, как и те, что создают их.
Еще по теме
Впрочем, уже в недалеком будущем обычный зритель не сможет отличить дипфейк от реального видео.
Это вообще законно?!
Пока механизмы регулирования дипфейков не отработаны, борьба с ними — сложная юридическая и техническая задача. В некоторых странах законодательства на этот счет нет, в других — дипфейки запрещены без согласия лица, с «участием» которого делается видео.
В России есть несколько законов и актов, которые помогут защититься от дипфейков:
1. Поправки в закон «Об информации, информационных технологиях и о защите информации» — они позволяют обратиться в соцсеть, на сайт или в поисковик и попросить удалить видео с дипфейком («право на забвение»).
2. Статья 23 Конституции РФ и статья 152.2 ГК РФ позволяют привлечь к ответственности за незаконное получение изображения — если кто-то сделал дипфейк с использованием вашего изображения.
3. Статья 128.1 УК РФ наказывает за клевету и распространение порочащих сведений. Если кто-то распространяет дипфейк, зная, что это дипфейк, — это и есть клевета, потому что не имеет отношения к действительности.
4. Статья 242 УК РФ наказывает за распространение порнографии. Даже если в порноролике ненастоящий человек — это все равно порнография.
Чем полезны дипфейки
При правильном использовании технология дипфейков может быть полезна в разных сферах. Мы уже рассказали и показали, как эта технология может быть полезна в кинематографе — для создания спецэффектов, «омоложения» актеров, воссоздания исторических событий.
Но еще дипфейки могут быть полезны в образовании и науке — для создания симуляций, виртуальных инструкторов, видеообучений. Так, компания WPP еще в 2020-м — в связи с пандемией коронавируса — начала использовать дипфейки в обучении своих сотрудников. В компании сказали, что создание роликов с участием ИИ-ведущего стоило в десятки раз меньше, чем если бы для съемок пригласили реальных актеров.
И конечно, дипфейки будут полезны в искусстве, рекламе и развлечениях. В 2019 году музей Дали в Санкт-Петербурге (Флорида, США) воскресил Сальвадора Дали в честь 115-летия со дня его рождения:
«Художник» общался и делал селфи с посетителями музея. Для этого понадобилось 6000 его фотографий, 145 видео с его участием, 1000 часов работы нейросетей — и получилось 45 минут материала, но с многочисленными комбинациями для каждого посетителя музея
Какой вред могут принести дипфейки
С помощью дипфейка можно создать видео, в котором человек говорит то, чего на самом деле не говорил, — и распространять фейковые новости, компрометировать людей, манипулировать общественным мнением. Мы уже показали, как технологию можно применять в мошенничестве с деньгами и в политических целях. Примеры с Бараком Обамой и королевой Елизаветой II — безобидные и веселые, но могли бы быть другими, если бы кому-то это было нужно.
Еще дипфейки применяются в порноиндустрии для создания фейковых видео с участием знаменитостей (показывать такое мы не будем). Но и обычные люди могут пострадать от так называемого deepfake porn. Так, в 2021 году жительница США наложила лица трех девушек на тела порноактрис и отправила эти видео знакомым девушек. Все это она сделала, чтобы «убрать» девушек из команды по чирлидингу, где занималась ее дочь.
В целом же дипфейки могут способствовать подрыву доверия к видео и аудио как к доказательствам: чему верить, когда все можно сгенерировать?
Как создать свое дипфейк-видео
Как мы уже написали, законность дипфейков — видео с лицом конкретного человека — под вопросом. Поэтому создавайте их на свой страх и риск.
При помощи приложений
Для подмены лиц используются сервисы и приложения Zao, Reface
Работа «Дипфейка» от «ВКонтакте»
Создать дипфейк можно только для личного использования и, конечно, не с целью порочить чьи-то честь и достоинство. Качество видео, созданных с помощью таких приложений, будет невысоким — будет понятно, что это дипфейк.
Для синтеза речи используют Lyrebird, Resemble.AI
С самостоятельным запуском скриптов
Приложений, которые сделали бы и видео, и речь, всё это объединили и притом выдали качественный результат, пока что нет.
Для создания профессиональных дипфейков — как в примерах с Томом Крузом, Киану Ривзом, Обамой и прочими — нужно самостоятельно обучить нейросеть на большом объеме данных и запустить скрипты генерации. Для этого применяют DeepFaceLab и тому подобные программы, а также знания в области машинного обучения и программирования. Посмотрите, как создавались видео с Томом Крузом из начала статьи:
Реалистичность здесь достигается в том числе благодаря постобработке в разных видеоредакторах, а не только с помощью нейросетей
Резюме
- Дипфейк — технология создания убедительных видеороликов с участием людей. Сами такие видео тоже называются дипфейками.
- Дипфейки создаются с помощью GAN — генеративно-состязательных сетей. Часто дипфейки создаются с участием актеров и других известных людей.
- Есть дипфейки с заменой лица, синтезом речи и такие, которые комбинируют первое и второе.
- Менее профессиональные дипфейки можно отличить от настоящих видео — там будут странные формы, неестественная мимика. Но с каждым днем они становятся все более и более неотличимыми от реальных видео.
- Мало где есть законы, касающиеся дипфейков напрямую, но в России ряд законов позволяет бороться с дипфейками, которые порочат честь и достоинство и причиняют другой вред.
- Дипфейки могут быть полезны в науке и обучении — для создания образовательных роликах, а также в развлечениях, кинематографе.
- Дипфейки вредны тем, что могут порочить честь и достоинство, компрометировать людей, использоваться в мошенничестве. Еще они снижают доверие к аудио и видео как к доказательствам.
- Для создания простых шуточных дипфейков используют приложения Zao, Reface, «Дипфейк» от VK, а для синтеза речи — Lyrebird AI, Resemble.AI и подробные сервисы.
- Чтобы более профессионально создавать дипфейки, нужно разбираться в программировании и нейросетях.
Понравилась статья?
Теги статьи
Похожие статьи
Нам нравится, что вам нравится
Уверены, вы можете не хуже! Напишите статью и получите Бонусы.
Спасибо, что вам есть что сказать
Попробуйте расширить свою мысль и написать статью — и получите за это Бонусы.
Комментарии
Авторизуйтесь, чтобы иметь возможность писать комментарии:
Войти