Наука и технологии

Эксперты опасаются, что видео, созданные с помощью ИИ, будут манипулировать людьми

3-4 минуты

Поддельные видеоролики создаются с помощью технологии Deepfakes, работающей на основе машинного обучения. На протяжении нескольких лет она применялась в исследовательских лабораториях, но не так давно стала доступной для широкой публики. По сути, это простое в использовании приложение, которое можно легко скачать из Сети и установить на персональный компьютер, поэтому неудивительно, что фейковые видеозаписи сейчас настолько популярны.

В 2017 один из пользователей платформы Reddit опубликовал несколько порнографических сюжетов, в которых «засветились» ненастоящие Эмма Уотсон, Дейзи Ридли, Кэти Пэрри и другие голливудские актрисы. После этого администрации Reddit, Pornhub и Twitter начали предпринимать шаги, чтобы предотвратить появление подобного контента на своих платформах, однако любители Deepfakes не останавливаются, и теперь они используют возможности нейросетей, чтобы делать ролики с участием политиков.

«Идея о том, что кто-то может наложить лицо одного человека на тело другого, сразу наводит на мысль о попытках вмешаться в естественный ход жизни, – говорит сенатор штата Вирджиния Марк Уорнер (Mark Warner), возглавивший группу по борьбе с Deepfakes в социальных медиа. – Это новая реальность, с которой нужно бороться, потому что в противном случае к 2020 году последствия могут стать необратимыми». Кроме того, за видео, публикуемыми на YouTube, в данный момент следят эксперты, такие как, например, профессор Дартмутского колледжа Хани Фарид (Hany Farid), который специализируется на цифровой криминалистике и анализе изображений.
Процесс «наложения» лиц друг на друга / © Niessnerlab

Процесс «наложения» лиц друг на друга / © Niessnerlab

Возможность использования искусственного интеллекта в медиапроизводстве еще в 2015 году изучалась исследователями из Стэнфорда, Института информатики общества Макса Планка и Университета Эрлангена-Нюрнберга. Они разработали программу Face2Face, которая следит за мимикой двух людей с помощью самой обыкновенной веб-камеры, а затем проецирует лица друг на друга. Похожее приложение, выпущенное компанией Adobe и называемое VoCo, дает возможность пользователям легко редактировать аудиозаписи, и его уже использовали, чтобы имитировать голос Барака Обамы.

«То есть я, обычный человек, могу стать президентом Соединенных Штатов и пропагандировать все, что угодно, – беспокоится Фарид. – Это идеальный способ манипулирования людьми, который может усугубить и без того непростую ситуацию с поддельными новостями». Он его коллеги планируют активно бороться с текущими тенденциями.

Евгения Чернышёва

Интересная статья? Поделитесь с друзьями!

Реклама

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Google+ photo

Для комментария используется ваша учётная запись Google+. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s