Дипфейк — это имитация человека, созданная с помощью передовых технологий, включая искусственный интеллект и глубокое обучение. Это может быть поддельное изображение или клип выражения лица человека, звуковой файл или фильтр, имитирующий его речь, или что-либо еще, что напоминает человека, использующего машинное обучение.
Злоумышленники могут использовать биометрию в банках и ее алгоритм для нацеливания на определенные черты сходства человека, такие как структура его лица или язык тела. Он обеспечивает невероятно убедительное подражание, которым пытаются воспользоваться хакеры.
Нейронные сети — это искусственные интеллектуальные компьютерные системы, частично построенные на человеческом разуме и предназначенные для выявления тенденций в информации. Дипфейки зависят от искусственных нейронных сетей. Здесь начинается процесс создания дипфейка. Чтобы сделать дипфейковое видео, разработчик сначала загружает бесчисленные часы реальной видеозаписи в глубокую нейронную сеть, которая затем «обучается» распознавать подробные ритмы и черты человека. Это выполняется, чтобы предоставить алгоритму реалистичное представление о том, как этот человек выглядит с разных точек зрения.
Термин «Дипфейк» часто относится к поддельному видео, в котором используется искусственный интеллект и технология распознавания лиц для имитации и захвата изображений лица одного человека и наложения их на тело другого человека. Хотя поначалу это может показаться забавным и занимательным, возможность создавать поддельный и убедительный видеоконтент и другие средства массовой информации с помощью этой новой технологии имеет серьезные последствия для реального мира.
Технология, используемая для создания видео, называется «DeepFakes» и стала популярным цифровым инструментом для создания синтетических медиа. Но теперь предприятия и правительства обсуждают последствия DeepFake, особенно после его недавнего использования в гнусных целях, таких как фейковые новости и вводящие в заблуждение СМИ, которые потенциально могут повлиять на национальные выборы.