Функция добавления в закладки доступна только авторизованным
пользователям. Зарегистрируйтесь или войдите в свой
аккаунт.
Функция отправки личных сообщений доступна только авторизованным
пользователям. Зарегистрируйтесь или войдите в свой
аккаунт.
Функция оценок доступна только для авторизованных
пользователей. Зарегистрируйтесь или войдите в свой
аккаунт.
Функция добавления в контакты доступна только авторизованным пользователям. Зарегистрируйтесь или войдите в свой аккаунт.
Путеводитель по дипфейкам: осведомлён — значит вооружён
Хотя изменённые и поддельные медиа не являются чем-то новым, дипфейки выводят их на совершенно новый уровень, используя искусственный интеллект для создания изображений, видео и аудио, которые кажутся реальными, но на самом деле таковыми не являются. Дипфейки (DeepFake) — это синтетические медиа, в которых человек на существующем изображении, видео или записи заменяется чьим-либо подобием. Технология DeepFake представляет собой одно из самых интригующих и противоречивых достижений в сфере ИИ. Поскольку дипфейки становятся всё доступнее, а их качество растёт, они создают серьёзные проблемы и в то же время дают новые возможности развития в различных сферах жизни человека.
Как создаются дипфейки
Сегодня технология дипфейков построена на сложных нейронных сетях, которым требуются огромные объёмы данных и вычислительные мощности для создания убедительного поддельного контента. Они основаны в первую очередь на использовании генеративно-состязательных сетей (GAN). Представленные в 2014 году Яном Гудфеллоу и его командой, GAN явили собой прорыв в этой области, позволяющий создавать более сложные и убедительные дипфейки. В этой технологии используются две нейронные сети: одна генерирует поддельные изображения, а другая пытается определить их подлинность, постоянно улучшая реалистичность результата.
Генеративно-состязательные сети (GAN)
GAN включают в себя две модели машинного обучения: генератора и дискриминатора. Первая создает изображения или видео, которые выглядят реальными, в то время как вторая оценивает их подлинность по набору реальных изображений или видео. Таким образом устанавливается состязательный процесс, который продолжается до тех пор, пока дискриминатор не перестанет отличать сгенерированные изображения от реальных, что приводит к очень убедительным дипфейкам.
GAN изучают нюансы человеческих выражений и движений. Они позволяют реалистично манипулировать медиа, синтезируя новый контент, имитирующий стиль и детализацию исходных данных. Это делает GAN невероятно мощным средством создания вводящих в заблуждение медиа, которые продолжают становиться всё более и более неотличимыми от подлинных.
Кинопроизводство и развлечения
Технологии дипфейков используются для улучшения визуальных эффектов в фильмах и телепередачах, восстановления вокала актёров, улучшения дубляжа на иностранном языке, омоложения актёров в сценах с воспоминаниями, или даже завершения работ после смерти актёра или его выхода на пенсию. Например, дипфейки применялись для омоложения персонажей в фильме «Ирландец».
Здравоохранение
В медицине технология DeepFake помогает проводить персонализированные терапевтические сеансы, на которых вместо врачей выступают дипфейки людей, кому пациент доверяет, чтобы сделать терапию более эффективной. Также технология может повысить диагностический потенциал выявления новообразований во время проведения магнитно-резонансной томографии (МРТ).
Политическая дезинформация
В дипфейковом видео может быть изображён политический деятель, делающий подстрекательские заявления или поддерживающий политику, которую он никогда не поддерживал. Это потенциально может повлиять на общественное мнение и, возможно, вызвать волнения.
Дипфейковый фишинг
Применяется с целью заставить человека совершить несанкционированные платежи или добровольно предоставить конфиденциальную информацию. Зачастую дипфейковый фишинг начинается с аудиодипфейка лица, которому доверяют. Преступник, замаскированный под номинальное лицо, связывается с жертвой через веб-конференцию или голосовые сообщения, а также применяет другие формы социальной инженерии, используя чувство срочности, чтобы заставить человека действовать импульсивно. Мошенники могут создавать аудиоклоны, которые звучат точно так же, как друзья или члены семьи, и использовать их по телефону, чтобы обманом заставить людей отправлять деньги.
Автоматизированные дезинформационные атаки
DeepFake также может использоваться для автоматических дезинформационных атак, таких как теории заговора и неверные теории о политических и социальных проблемах. Достаточно очевидным таким примером является видео с Марком Цукербергом, утверждающим, что у него есть «полный контроль над данными миллиардов людей» благодаря Spectre, вымышленной организации из романов и фильмов о Джеймсе Бонде.
Современные технологии обнаружения дипфейков
Разработка инструментов для выявления дипфейков стала решающей в борьбе с цифровой дезинформацией. Некоторые из лучших методологий:
10 советов по определению дипфейков
Как мы уже успели понять, наиболее распространённый метод, используемый в дипфейках, — это замена лиц. Внимательно осмотрите лицо на предмет каких-либо неровностей или размытостей. Часто именно здесь технологии дипфейков не могут плавно совместить изменённое лицо с телом.
дипфейк ии искусственный_интеллект медиа