Скандал о создании поддельных порнороликов с участием знаменитостей разгорелся с новой силой — теперь любой желающий может выпустить «фейковое» видео, не обладая никакими особыми навыками. Эксперты сходятся во мнении, что эта технология несет в себе опасные для современного общества последствия.
Двухлетку за два месяца
В декабре стало известно о новом алгоритме машинного обучения, который позволяет заменять лица в видеороликах. Его придумал пользователь под никнеймом deepfakes, который поделился на форуме Reddit своим своеобразным «хобби» — с помощью этой технологии он генерирует порноролики со знаменитостями.
Алгоритм позволяет создать крайне достоверный эффект анимации лица благодаря большому количеству фотографий и видео звезд в интернете. Система собирает весь графический контент воедино и компилирует настолько правдоподобную «картинку», что невооруженным глазом можно не заметить подвоха. Deepfakes продемонстрировал результаты работы алгоритма на порно, в котором лицо актрисы было заменено на лицо исполнительницы роли Чудо-Женщины Галь Гадот.
Прошло всего пара месяцев, но выпуск порнороликов с использованием искусственного интеллекта (ИИ) вышел на уровень конвейерного производства.
Один из последователей deepfakes выпустил приложение с простым интерфейсом, которое позволяет человеку без специальных навыков смонтировать видео с той звездой, которая ему нравится.
Это приложение бесплатно, находится в открытом доступе и даже предоставляет уроки для новичков. Сообщается, что для достижения результата пользователю понадобятся всего лишь два видеоролика со знаменитостями в хорошем качестве. Весь процесс создания занимает около 12 часов.
Если в декабре эксперты в области ИИ были настроены довольно пассивно и не видели большого вреда в открытии deepfakes, то при нынешней скорости появления новых роликов со звездами оставаться в стороне уже нельзя. Сам программист не видит в своем алгоритме ничего плохого, ссылаясь на то, что его публикация заинтересовала большое количество людей, которые теперь занимаются новыми технологиями.
Два месяца назад Motherboard связалась с ученым в сфере компьютерных наук из правозащитной организации «Фонд электронных рубежей» Питером Экерсли, чтобы обсудить последствия внедрения такого технологии в повседневную жизнь. Эксперт признал, что на текущий момент создать собственный ролик на базе нейросетей может каждый, но им никого не удастся обмануть — из-за пока еще большого количества шероховатостей и неточностей.
«Такое положение вещей сохранится еще как минимум год или два», — заключил Экерсли.
Как оказалось, хватило всего двух месяцев. На Reddit появились новые порноролики — с «участием» актрис Джессики Альбы и Дэйзи Ридли — и их качество уже значительно превосходит декабрьские видео.
Правдоподобность этих роликов настолько высока, что их стали принимать за настоящие создатели ресурсов, публикующих интимные фотографии знаменитостей. Один из самых популярных подобных сайтов опубликовал видео с актрисой Эммой Уотсон, где она принимает душ, с заголовком «ранее не опубликованные кадры из частной коллекции». Тем не менее, этот ролик был смонтирован по технологии deepfakes, а сама Эмма Уотсон не имеет к нему никакого отношения, кроме того, что ее лицо было использовано без какого-либо согласия.
Несмотря на то, что пользователей, которых заинтересовало машинное обучение, больше привлекает создание именно порнороликов, случаются и исключения. Один из них — юзер Z3ROCOOL22, который совместил фрагменты выступлений президента Аргентины Маурисио Макри и Адольфа Гитлера, создав «нового» политика.
Никому нельзя верить
В результате простое в использование приложение позволяет каждому без особых усилий создавать фейковое видео — от интимного видео со своей бывшей девушкой в качестве «порномести» до выступления государственного деятеля, который может сказать с трибуны все что угодно. Эта технология имеет потенциал навсегда изменить потребление медиа-контента в интернете.
Высокая скорость совершенствования алгоритма и эпоха «фейковых» новостей могут привести к тому, что отличить ложь от правды станет практически невозможно.
«Тот факт, что эта технология доступна для каждого, пугает. Из-за этого рушится вся концепция доверия и благонадежности», — считает заслуженный профессор прикладной этики Дебора Джонсон.
Действительно, созданный алгоритм в конечном счете затронет не только знаменитостей, которые и так часто становятся жертвами fake news, но и политику, журналистику и даже сферу безопасности.
Технология явно не ограничится только заменой лиц, и пока остается только догадываться, что еще будет сфабриковано в интернет-пространстве. Но если проблемой лживых новостей уже занялись на уровне крупнейших социальных сетей мира и даже правительств некоторых стран, то проблема «фейкового» порно пока в парламентах ведущих стран даже не обсуждается.
Комментарии (16)