deepfake, синтетические медиа, включая изображения, видео и аудио, созданные технологией искусственного интеллекта (ИИ), которые изображают то, что не существует в реальности, или события, которые никогда не происходили.
Термин deepfake объединяет в себе deep, взятый из технологии глубокого обучения ИИ (тип машинного обучения, который включает в себя несколько уровней обработки), и fake, обращаясь к тому, что контент не является реальным. Термин стал использоваться для обозначения синтетических медиа в 2017 году, когда модератор Reddit создал субреддит под названием «deepfakes» и начал публиковать видео, в которых использовалась технология подмены лиц для вставки подобий знаменитостей в существующие порнографические видео.
Помимо порнографии, среди широко распространенных примеров фальшивок — изображение Папы Римского Франциска в пуховой куртке, изображение бывшего президента США Дональда Трампа в потасовке с полицией, видео, на котором генеральный директор Facebook Марк Цукерберг произносит речь о гнусной власти своей компании, и видео, на котором королева Елизавета танцует и произносит речь о силе технологий. Ни одно из этих событий не происходило в реальной жизни.
Глубокие подделки создаются с помощью двух различных алгоритмов глубокого обучения ИИ: один создает максимально точную копию реального изображения или видео, а другой определяет, является ли копия подделкой, и, если это так, сообщает о различиях между ней и оригиналом. Первый алгоритм создает синтетическое изображение, получает от второго обратную связь и корректирует его, чтобы оно выглядело более реальным; процесс повторяется столько раз, сколько потребуется, пока второй алгоритм не обнаружит ни одного ложного изображения.
В видео deepfake голос конкретного человека может быть воспроизведен путем подачи модели ИИ реальных аудиоданных от этого человека, тем самым обучая ее подражать ему. Часто видео deepfake создаются путем наложения на существующие кадры с человеком, который говорит, нового аудио, сгенерированного ИИ и имитирующего голос этого человека.
Глубокие подделки чаще всего связаны с гнусными мотивами, в том числе с созданием дезинформации и внесением путаницы в политически важные вопросы. Они используются для унижения, запугивания и преследования, причем их жертвами становятся не только знаменитости, политики и руководители компаний, но и обычные граждане.
Однако появились и положительные способы использования deepfakes. Одно из них — распространение информации о социальных проблемах. Например, футболист Дэвид Бекхэм участвовал в кампании по повышению осведомленности о малярии, в рамках которой были созданы видеоролики, в которых он говорил на девяти разных языках, что позволило расширить охват аудитории. Мир искусства также нашел положительное применение технологии deepfake. На выставке «Дали живет» в Музее Дали в Санкт-Петербурге, штат Флорида, можно было увидеть видео, на котором художник Сальвадор Дали в натуральную величину произносил цитаты из своих интервью и письменной переписки голосом, имитирующим его голос. Появилось и несколько юмористических deepfakes. Один из аккаунтов TikTok полностью посвящен глубоким подделкам Киану Ривза, а видеоролики в нем варьируются от юмористических рассуждений о романтических отношениях до танцев TikTok.
Образование и медицина — еще две области, в которых могут быть полезны технологии deepfake. В классе преподаватели могут использовать deepfake исторических речей, чтобы проводить захватывающие и увлекательные уроки. Использование технологии deepfake в здравоохранении может повысить точность обнаружения опухолей на снимках магнитно-резонансной томографии (МРТ), что облегчит их лечение. Например, поскольку опухоли или аномалии относительно редки среди населения, трудно получить достаточное количество их изображений, чтобы передать их в программу искусственного интеллекта. Deepfake-изображения позволяют обучить такие программы искусственного интеллекта распознавать большее количество аномалий, что повышает их точность в долгосрочной перспективе. Кроме того, их использование позволяет проводить исследования с использованием синтезированных данных, а не данных реальных пациентов, что позволяет исследователям не беспокоиться о конфиденциальности.