Дипфейк
Дипфе́йк (англ. Deepfake, от deep learning – глубокое обучение и fake – подделка), технология на базе искусственного интеллекта, позволяющая редактировать видео, создавая ложные изображения на основе реальных кадров; сами ролики, сделанные с использованием данной технологии. Выявить подделку можно только с помощью специальных программ. Большинство дипфейков представляют собой порнографические материалы якобы с участием звёзд музыки и кино. Дипфейки могут создаваться в целях троллинга, мошенничества, кибербуллинга и т. д. При этом технология имеет широкие перспективы для использования в области образования, науки, рекламы, искусства.
Технологию дипфейк изобрёл в 2014 г. выпускник Стэнфордского университета и аспирант университета Монреаля Я. Гудфеллоу. В её основе – генеративно-состязательная нейросеть. Один алгоритм обучается производить изображения, используя десятки тысяч фотографий, другой – пытается отделить фальшивые изображения от настоящих. За счёт этого программа «самообучается», совершенствуется в изготовлении подделок (Попова. 2019).
В 2017 г. пользователи социальной сети Reddit начали применять технологию для производства порнографических роликов с лицами знаменитостей. Обнаружив такие видео, платформы [Reddit, Facebook (Facebook принадлежит корпорации Meta, которая внесена в перечень организаций, причастных к терроризму и экстремизму, и запрещена на территории Российской Федерации), Twitter, Pornhub] ввели запрет на размещение дипфейков. Технологические платформы также вкладывают значительные средства в разработку решений, позволяющих выявлять подобные ролики. В 2019 г. Facebook объявил конкурс на разработку алгоритма, идентифицирующего фейковые видео, главный приз – 50 тыс. долл. (Попова. 2019).
Известность приобрели ролики, в которых голливудские актёры и просто известные люди появляются в фильмах, в которых они не снимались. Так, внешность актёра Н. Кейджа использовали для создания роликов, сделанных на основе фильмов «Бойцовский клуб», («Fight Club», 1999, режиссёр Д. Финчер) «Матрица» («The Matrix», 1999, режиссёры Л. и Л. Вачовски) и т. д. Сторонники ироничного восприятия Н. Кейджа добавляли актёра в ролики фильмов, где он в самом деле играл, и заменяли внешностью Кейджа внешность всех персонажей, включая детей и женщин. В серии популярных роликов лицо Дж. Николсона в фильме «Сияние» («The Shining», 1980, режиссёр С. Кубрик) заменили на Дж. Керри. Нейросеть натуралистично воспроизводит на новом лице «фирменную» мимику героя Николсона.
Жертвами технологии часто становятся политики. 44-му президенту США Б. Обаме «присвоили» бранное выражение в отношении 45-го президента США Д. Трампа, а спикеру Палаты представителей США Н. Пелоси искусственным образом замедлили речь, как будто она пьяна. Политик назвала ролик «сексистским мусором». Эти видео вызвали озабоченность правоохранительных органов и федеральных властей. Нижняя палата Конгресса США направила письмо директору национальной разведки США с просьбой дать дипфейкам оценку с точки зрения национальной безопасности. В Калифорнии производство дипфейков с политиками, участвующими в предвыборной кампании, запрещено законодательно (Ивтушок. 2019).
Более 90 % дипфейков составляют порнографические материалы, где лица моделей заменены лицами знаменитых актёров и эстрадных исполнителей. Подобная деятельность зачастую подпадает под действие законодательства о мошенничестве, клевете, диффамации, защите чести, достоинства и деловой репутации, но при этом оказывается в «серой зоне», т. к. фактически изображения нереальны (Попова. 2019). Технология может стать орудием в руках злоумышленников, практикующих кибербуллинг. По мере развития биометрии, расширения возможностей оплаты покупок «по лицу» дипфейки могут оказаться чрезвычайно опасны (Немцева. 2021).
Дипфейки используют легально, преимущественно в кинематографе и рекламе. Так, в рекламе Сбербанка зритель может увидеть восстановленного Жоржа Милославского из фильма «Иван Васильевич меняет профессию» (1973, режиссёр Л. И. Гайдай). Генеративно-состязательные сети помогают восстанавливать повреждённые киноленты для повторного проката. Вместо актёра П. Уокера (1973–2013), погибшего в автокатастрофе во время съёмок (инцидент произошёл не на съёмочной площадке) 7-й части франшизы «Форсаж» («Furious 7», 2015, режиссёр Дж. Ван) была использована его цифровая копия. Для фильма «Звёздные войны: Скайуокер. Восход» («Star Wars: Episode IX – The Rise of Skywalker», 2019, режиссёр Дж. Дж. Абрамс) продюсеры «воскресили» умершую актрису К. Фишер (1956–2016). Мексиканского журналиста Х. В. Карденаса (1967–2017), убитого наркомафией, воскресили с помощью дипфейка, чтобы он мог записать обращение к президенту с призывом бороться с этим криминальным бизнесом (Калугина. 2021).
Использование компьютерных технологий может позволить существенно сократить издержки на оплату труда актёров: чтобы появиться в фильме или рекламном ролике, им будет достаточно предоставить право на использование своего лица.
Другое легальное применение дипфейков – наука и образование. Искусственно сгенерированные «лекторы» читают онлайн-курсы. В роли преподавателя может быть мультипликационный персонаж или, например, А. Эйнштейн для курса по теории относительности. Музей С. Дали во Флориде на основе 6 тыс. снимков воспроизвёл изображение художника. Посетители выставки могли посмотреть на произведения искусства и пообщаться с художником.
Представители компаний, развивающих данную технологию, полагают, что дипфейки приносят обществу больше пользы, чем вреда, представляя собой современный вариант фотошопа. Они считают, что обвинять их в нарушении норм закона и этики неразумно (Чмир. 2021).