Дипфейки — значимое и пока неконтролируемое явление в мире медиа и технологий

РБКHi-Tech

«Обманываться рады»: Как дипфейки помогут Голливуду, рекламщикам и программистам

Автор: Мария Шакирова

0:00 /
1231.974

Неосязаемое новое платье короля уже не сказка, а реальный хит в мире моды. И стоит оно по-королевски: $9,5 тыс. заплатил американец Ричард Ма за цифровое платье для своей жены, в котором она сможет появиться разве что на экранах мониторов и в постах соцсетей. Законодатель цифровой моды — нидерландская фэшн-компания «Фабрикант» — уверяет, что виртуальная одежда от их ИИ-дизайнера освободит людей от ограничений физического мира. Клиенты могут примерить фейковые наряды на фоне «жутких ландшафтов с остатками индустрии моды».

Летом 2019 года гендиректору британского филиала одной из немецких энергетических компаний позвонил руководитель головного офиса, попросив перевести €220 тыс. венгерскому поставщику. Отправить деньги нужно было в течение часа. Несмотря на то что просьба выглядела странной, управленец не стал спорить с боссом. Лишь позднее он узнал, что голос руководителя, который был ему так хорошо знаком, принадлежал... компьютерной программе. Неизвестный злоумышленник использовал сгенерированную нейросетями имитацию. И хорошо, если бы это был единичный случай...

Если бы несчастный гендиректор следил за развитием технологий, он бы наверняка знал о том, что подделать теперь можно не только голос, но и лицо человека, «вклеив» его в любое видео. Такого рода подделки, получившие название дипфейк, не раз становились причинами политических скандалов. Весной 2019 года президент США Дональд Трамп опубликовал видеозапись выступления председателя конгресса Нэнси Пелоси, которая выглядела пьяной. Выяснилось, что авторы ролика намеренно обработали запись: скорость уменьшили, а голос изменили так, что речь стала невнятной. После инцидента конгресс США запустил расследование, заявив, что такие видео могли фатально повлиять на выборы президента в ноябре 2020 года.

Университетский колледж Лондона называет одиозную технологию главной угрозой ближайших 15 лет. «Индустрия дипфейков развивается стремительно. По данным компании Sensity, которая занимается кибербезопасностью, количество таких видео увеличилось в два раза в период с января по июнь 2020 года. В настоящее время существует порядка 15 тыс. дипфейк-видео», — говорит Аркадий Оверин, технический директор «Номикс», компании-разработчика интерактивных AR/VR-приложений и игр.

Авторы сфабрикованных роликов зачастую стараются бросить тень не только на политиков, голливудских актрис и прочих знаменитостей, но и на обычных людей — например, шантажируют с помощью сгенерированного порно их «участниц» — замужних женщин. Делают дипфейки и в России, причем официально. Как выяснилось, использовать их можно не только в дурных целях: огромный запрос на дипфейки существует со стороны рекламной и развлекательной индустрии.

Обман с Обамой

Для тех, кто следит за развитием технологий, слово «дипфейк» уже знакомо — впервые мир заговорил о новом явлении еще в 2017 году, когда пользователь новостного агрегатора Reddit стал выкладывать порноролики, где лица актрис были «позаимствованы» у голливудских знаменитостей. Это применение дипфейков, кстати, до сих пор остается основным: по данным Sensity, 96% технологичных подделок — именно порно. В Telegram существуют десятки ботов, которые по запросу пользователей создают порнографические ролики и фотографии на основе изображений реальных людей. К июлю 2020 года в общедоступных каналах мессенджера были опубликованы более 100 тыс. таких дипфейков, в том числе с участием несовершеннолетних.

Позже на YouTube стали появляться видео, где политические деятели делали неожиданные громкие заявления. Например, видео 2018 года с Бараком Обамой, в котором экс-президент США рассказывает о дипфейках, параллельно оскорбляя Дональда Трампа. Этот ролик, впрочем, был создан в благих целях — его сгенерировал американский актер Джордан Пил совместно с BuzzFeed, чтобы показать, насколько реальна угроза дезинформации, созданной с помощью искусственного интеллекта. А вот появившееся летом 2019 года в Instagram (соцсеть признана в РФ экстремистской и запрещена) фальшивое видео с Марком Цукербергом, в котором он рассказывает о том, как Facebook (соцсеть признана в РФ экстремистской и запрещена) управляет будущим благодаря украденным данным пользователей, многих легковерных настроило против этой соцсети.

Зимой 2020 года CNN рассказал историю старшеклассника из штата Нью-Йорк, который создал и смог верифицировать в Twitter аккаунт несуществующего кандидата в президенты от Республиканской партии. На подростка сильно подействовал школьный урок истории, на котором учитель рассказал о якобы имевшем место российском вмешательстве в американские выборы. Молодой человек задался вопросом: как соцсети будут бороться с подобными угрозами на следующих выборах? И провел эксперимент: с помощью нейросети, которая генерирует фото несуществующих людей, создал кандидата Эндрю Вальца, сочинил ему легенду и слоган для предвыборной кампании. Обеспокоенность подобными инцидентами привела к тому, что осенью 2019 года в штате Калифорния приняли закон, запрещающий использование нейронных сетей для манипуляций вниманием без прямого указания на это.

Однако в других странах подобных законов нет, и дипфейки там могут значительно повлиять на исход политических кампаний. Зимой 2020 года в Индии набрали популярность два видеоролика, в которых президент Индийской народной партии Маной Тивари агитирует голосовать за себя. В одном видео политик говорит на хинди, а в другом — на диалекте хариани, которым он в реальности не владеет: нейронные сети помогли кандидату привлечь новых избирателей. Накануне парламентских выборов, которые прошли 31 октября, правящая партия «Грузинская мечта — демократическая Грузия» заявила, что представители радикальной оппозиции готовили провокационные материалы с использованием дипфейков.

Порой авторы политических фальшивок заявляют, что сделали их на благо обществу. Например, в сентябре в соцсетях появилось два ролика, которые по заказу беспартийной правозащитной организации RepresentUs создало креативное агентство Mischief at No Fixed Address. В одном из них президент России Владимир Путин говорит о том, что американцам не нужно бояться иностранного вмешательства в выборы, поскольку они сами преуспели в уничтожении демократии. Во втором ролике то же самое сообщение доносит северокорейский лидер Ким Чен Ын.

Оба видео, разумеется, дипфейки. То, насколько тонка грань между подобной попыткой напомнить о демократических ценностях и пропагандой, очевидно даже американцам: как пишет MIT Technology Review, трансляция этих дипфейков планировалась на телеканалах Fox, CNN и MSNBC, но в последний момент их сняли с эфира.

Закон не писан

Дипфейки тем опаснее, что сделать их сегодня может даже школьник. «В свободном доступе имеются многочисленные сервисы и ИИ-ресурсы, которые могут генерировать дипфейки: MarioNETte, Synthesia Reface, Doublicat, Reflect, Faceswap, DeepFake Lab, FakeApp, Dowell, Morphine, технология синтеза речи знаменитостей Vera Voice, — перечисляет Валентина Максимова, персональный член Ассоциации развития интерактивной рекламы (IAB Russia). — Отсутствие единого регулятора для таких платформ увеличивает риск роста распространения фальсифицированного контента, поскольку этические стандарты остаются исключительно на совести разработчика. Запрос на единый инструмент, позволяющий не только идентифицировать недостоверную информацию, но и определить авторство, должен разрешиться на государственном уровне с участием телеком-компаний. В то же время нам не хватает широкой образовательной программы для населения по работе с информацией».

Нормативная и правовая база традиционно не поспевает за технологиями. «На данный момент специального законодательства в области дипфейков нет, — отмечает Аркадий Оверин. — При попытке разрешить споры, касающиеся фейкового видео, могут применяться ранее установленные законы. Например, можно подать заявление о злонамеренной лжи, но только в том случае, если контент содержит ложные утверждения, которые привели к материальному и моральному ущербу. А вот законы о конфиденциальности вряд ли будут применимы, так как дипфейки чаще всего создаются с использованием фотографий, предоставленных самим лицом, понесшим ущерб (например, путем публикации в социальных медиа)».

Впрочем, четких инструментов для регулирования одиозной технологии нет в большинстве стран мира, признает Андрей Тарасов, специалист Центра машинного обучения «Инфосистемы Джет»: «Вот только в Китае с 1 января этого года ресурсы, публикующие дипфейк-видео, обязаны их маркировать. В случае несоблюдения требований предусмотрена уголовная ответственность».

Дипфейки обладают серьезным потенциалом к разрушению, но в наших силах ему противостоять, считает Мария Чмир, основательница компании Deepcake, которая развивает технологии, позволяющие генерировать подобные видео: 

  • «Во-первых, фактчекинг должен стать правилом № 1 нашей цифровой гигиены. Дипфейки пока еще заметны по внешним признакам: лицо может немного дергаться, отличаться по цвету от остальной картинки, в движении губ и взгляда наблюдается рассинхрон.
  • Во-вторых, колоссальная ответственность лежит на создателях технологий. Мало просто помечать контент вотермарками (от которых легко избавиться), важно развивать технологии невидимых цифровых водяных знаков. Даже если видео заходят разрезать, сжать или многократно скопировать, наш маркер не сотрется.
  • Третий путь — повышать качество детекции. Алгоритмы создания подделок и их идентификации родственны друг другу, что дает надежду на совершенствование технологий детекции».

Шоу должно продолжаться

Запрещать технологию дипфейков нельзя не только потому, что это исключительно сложно, но и потому, что ее можно задействовать на благо бизнеса. «Это всего лишь инструмент, который может быть использован и в развлекательных, и в практических целях. Допустим, я хочу купить очки, но из-за эпидемии не хочу идти в магазин. Примерил с помощью генератора дипфейков 20 моделей и подобрал подходящие. То же самое с одеждой и обувью», — рассказывает Вячеслав Архипов, преподаватель онлайн-университета Skillbox и ведущий дата-сайентист стартапа Banuba. Стартап разрабатывает, в частности, маски, которые могут сделать видеообщение пользователей на порядок интереснее — можно прямо во время разговора превратить свое лицо в обезьянью морду, обзавестись заячьими ушами или заставить бегать по своей голове тарантула.

В киноиндустрии технология способна значительно сократить материальные и временные затраты на производство, а также состарить, омолодить или даже воскресить актеров. Примером может служить фильм «Форсаж-7», который доснимался после гибели актера Пола Уокера: авторы картины создали цифровую копию героя боевика. Дипфейки также позволяют заменять лицами актеров лица каскадеров, реставрировать старые фильмы и кинохроники.

Российский стартап Deepcake специализируется на разработке искусственного интеллекта для визуальной коммуникации: его технологии позволяют не только накладывать одно лицо поверх другого, но и «оживлять» обычную фотографию, заставляя лицо двигаться, изображать различные эмоции и говорить. Разработанные стартапом технологии позволяют, скажем, интегрировать съемки новогоднего корпоратива в известный голливудский фильм или создавать обучающие материалы от первых лиц компании — например, с согласия гендиректора использовать его лицо во всех роликах, которые новый сотрудник смотрит, чтобы войти в курс дела. Прежний проект Марии Чмир — сервис Pantomime — делал анимированные портреты из фото пользователей, которые они загружали на сайт: клиенты выбирали эмоции из набора и потом делились «живыми портретами» с друзьям в мессенджерах. «Людям хочется общаться персонализированно и экспрессивно. Часто из текстовых сообщений невозможно считать интонацию. Мы подумали, а что, если бы у человека была возможность за несколько секунд создать анимированный эквивалент своего текущего состояния, — говорит Мария Чмир. — Пользователи начали делать себе стикерпаки, обменивались ими. К нам стали обращаться приложения, которые занимаются стикерами, приходили бренды, которые хотели интегрировать сервис в свои приложения».

Еще один отечественный проект — Avatarify — представил технологию, с помощью которой можно принять чей угодно облик во время звонка в Zoom или Skype. Весной создатели приложения Али Алиев и Карим Искаков выпустили демо-видео, которое показывало, как в видеодиалог двух молодых людей внезапно ворвался Илон Маск. Через некоторое время с разработчиками связался художник Билл Постерс (создатель упомянутого выше дипфейка с Цукербергом) и предложил им поучаствовать в создании видеоклипа для американского рэпера Lil Uzi Vert. В клипе Wassup, вышедшем на YouTube в мае 2020 года, «снялись» знаменитости, которых непросто собрать на одной съемочной площадке — рэперы Канье Уэст и Дрейк, Рианна, экс-президент Барак Обама и многие другие. А сервис Vera Voice, созданный Тимуром Бекмамбетовым и Владимиром Свешниковым, сооснователем Stafory (разработчик робота для подбора персонала «Вера»), подражает голосам знаменитостей. В 2020 году команда запустила приложение Parodist, с помощью которого можно разыграть друга либо отправить ему поздравление голосом Владимира Путина, Ксении Собчак или любой другой известной личности.

«На скорость развития этой технологии сильно повлияет спрос. Случился коронавирус, все засели дома — большой толчок для развития получили игры по сети. Там можно те же маски использовать — это как новая форма коммуникации. Видеосвязь с использованием дипфейков будет развиваться, появятся коллективные игры, где люди будут общаться через своих видеоаватаров», — заключает Вячеслав Архипов.

Что такое дипфейки

Название «дипфейк» — гибрид от англоязычных терминов deep learning (глубокое обучение) и fake news (фальшивые новости). Так называют фото-, видеои аудиоконтент, старающийся ввести в заблуждение пользователя. Для их создания чаще всего используются генеративно-состязательные сети. Они состоят из двух нейронных сетей, соревнующихся друг с другом: одна генерирует фальшивые кадры, а другая пытается определить, реальны они или нет. Этот цикл повторяется множество раз до тех пор, пока вторая сеть окажется неспособной отличить сгенерированное изображение от подлинного.

Вблизи Дали

Технический директор «Номикс» Аркадий Оверин приводит еще несколько примеров, когда технология может быть использована без вреда кому-либо.

Образование. Можно создавать захватывающие уроки — например, оживить на видео реальных исторических личностей.

Искусство. Лаборатория искусственного интеллекта Samsung с помощью дипфейка заставила Мону Лизу улыбнуться. В музее Сальвадора Дали во Флориде создали инсталляцию «Дали жив», где «воскрешенный» художник приветствовал посетителей.

Виртуальная реальность. Актеры могут за плату «сдавать» свои лица в библиотеки трехмерных изображений, с помощью которой аниматоры легко накладывали бы их на виртуальные манекены для создания персонажей VR-игр и различных приложений.

Фото: Zuma / ТАСС

Политика соцсетей по защите политиков

Автор: Янина Ноэль

Технологии совершенствования дипфейков развиваются быстрее, чем законы в этой области. Американские Twitter, Facebook (соцсеть признана в РФ экстремистской и запрещена) и китайский TikTok попытались самостоятельно отрегулировать распространение дипфейков разными способами.

Twitter ввел правила по дипфейкам и манипулированию СМИ, которые в основном предусматривают пометку твитов и предупреждение пользователей об измененных новостях, а не их удаление. По заявлению компании, твиты, содержащие фальсифицированные или недостоверные материалы, будут удаляться только в том случае, если они могут причинить вред. В определение вреда также включены любые угрозы конфиденциальности или права человека или группы лиц свободно выражать свое мнение. Это означает, что политика распространяется на преследование, навязчивое внимание, подавление или запугивание избирателей, а также на контент, содержащий фразы, предназначенные для того, чтобы заставить кого-то замолчать.

Facebook (соцсеть признана в РФ экстремистской и запрещена) в начале года анонсировал политику для удаления дипфейков. Сообщения будут удалены, если они соответствуют таким критериям:

  • контент был отредактирован или синтезирован (помимо улучшения четкости или качества) таким образом, который не очевиден для обычного человека и, вероятно, может ввести кого-то в заблуждение, заставив думать, что субъект видео сказал слова, которых он на самом деле не говорил;
  • это продукт искусственного интеллекта или машинного обучения, который объединяет, заменяет или накладывает контент на видео, делая его похожим на аутентичный.

TikTok. Новая политика TikTok запрещает любой синтетический или манипулирующий контент, который вводит пользователей в заблуждение, искажая правду о событиях, и который влечет причинение вреда. Политика касается не только запрещения конкретной технологии, основанной на ИИ, сколько в большей степени введена для защиты от использования любого вида обманного видео для очернения политических оппонентов в интернете.

Основной проблемой для соцсетей являлось отсутствие технологии обнаружения дипфейков. В 2019 году Facebook (соцсеть признана в РФ экстремистской и запрещена) вместе с Microsoft и другими партнерами запустили конкурс для решения проблемы обнаружения The Deepfake Detection Challenge. Самой успешной стала модель белорусского разработчика Селима Сефербекова. Она достигла точности 65,18% на тестовых дата-сетах. На третьем месте — модель российской компании NTechLab.

O'qishni davom ettirish uchun tizimga kiring. Bu tez va bepul.

Roʻyxatdan oʻtish orqali men foydalanish shartlari 

Tavsiya etilgan maqolalar

Необычные пейринги к вину: мнения сомелье Необычные пейринги к вину: мнения сомелье

Какие можно попробовать неожиданные и необычные пары к вину?

РБК
Сотворить «Онегина» Сотворить «Онегина»

Кто участвует в сотворении «Евгения Онегина» вместе с Пушкиным

Seasons of life
Слово редактора Слово редактора

На самом деле, нет более открытых миру людей, чем яхтсмены

Y Magazine
A Vida Portuguesa A Vida Portuguesa

«А вы уже были в A Vida Portuguesa?»

Seasons of life
Художники Художники

Рассказ Александра Маркова «Художники»

Знание – сила
Наука под знаком «Аненербе» Наука под знаком «Аненербе»

Наука может прекрасно себя чувствовать и в тиранических режимах

Знание – сила
Недолгий триумф «арийской физики» Недолгий триумф «арийской физики»

В какой тупик может завести себя наука, если станет служанкой нацизма

Знание – сила
И ты, Брут И ты, Брут

Второй год португальский проект Broot путешествует по мировым выставкам дизайна

Seasons of life
«Позеленение» Арктики: как его оценить и о чём оно свидетельствует «Позеленение» Арктики: как его оценить и о чём оно свидетельствует

Как арктические экосистемы приспосабливаются к изменениям климатических условий

Наука и жизнь
Коварный удар из-под земли Коварный удар из-под земли

«Холодная война» стала стимулом для неумеренных планов создателей оружия

Наука и техника
Каким ты будешь, городской бус? Каким ты будешь, городской бус?

Ждать ли нам завтра электробусов в каждом городе?

Наука и жизнь
«Кто богат детьми, богат и любовью, а любовь всего светлее»: Н.М. Карамзин – отец семейства «Кто богат детьми, богат и любовью, а любовь всего светлее»: Н.М. Карамзин – отец семейства

Николай Карамзин известен как «первый наш историк и последний летописец»

Знание – сила
Вино и дюны Вино и дюны

Район Колареш, единственное место в Португалии, где виноград растет из песка

Seasons of life
Мир экзопланет: как на орбитах у других солнц были открыты «непланеты» Мир экзопланет: как на орбитах у других солнц были открыты «непланеты»

О том, как обнаруживаются экзопланеты и какими они бывают

Наука и техника
«Мои счастливейшие дни…» «Мои счастливейшие дни…»

Понятие гения места, «genius loci» – к Остафьево применимо как нельзя более

Знание – сила
Один + один Один + один

Как на улочках Байрру-Алту живет и принимает гостей арт-проект Oficina Marques

Seasons of life
Долгий путь от «учебки» к Победе Долгий путь от «учебки» к Победе

В минометной роте любили песни: о поэтах на фронте Отечественной войны

Знание – сила
Перелет–2023 «Байкальская кругосветка» Перелет–2023 «Байкальская кругосветка»

«Байкальская кругосветка» – воздушное путешествие вокруг знаменитого озера

Наука и техника
Последняя загадка Пушкина Последняя загадка Пушкина

«Пушкин и Погорелое Городище» – тема, вынесенная на периферию пушкинистики

Знание – сила
Что «видели» астероиды? Что «видели» астероиды?

Чем астероиды интересны астрономам?

Наука и жизнь
Ключи от города Ключи от города

Мы даем несколько «точек входа» в Лиссабон, которые помогут понять его

Seasons of life
«Нечестная» игра Баше «Нечестная» игра Баше

Как найти выигрышную стратегию в игре Баше?

Наука и жизнь
Композиты в судостроении Композиты в судостроении

Что же такое композиционные материалы (композиты)?

Наука и техника
Жизнь вечная Жизнь вечная

Глагол — это жизнь как она есть

Seasons of life
Книга как искусство Книга как искусство

На протяжении долгих веков книга являлась главным хранителем информации

Знание – сила
Удивительный трубкозуб Удивительный трубкозуб

Ожившей химерой с прошедших веков трубкозуба, шутя, обзывают

Знание – сила
Любовь к животным и санкции Любовь к животным и санкции

Почему рынок кормов — перспективное направление для инвестиций

Агроинвестор
Компьютерное зрение: когда роботы перестали тыкать пальцем в небо? Компьютерное зрение: когда роботы перестали тыкать пальцем в небо?

Зачем нужно компьютерное зрение и какие задачи оно решает в разных сферах

Наука и техника
Июньская метель снежноцвета Июньская метель снежноцвета

Снежноцветы считаются красивейшими деревьями, и с этим трудно не согласиться

Наука и жизнь
Наука и жизнь. Архив: 1941—1945 годы Наука и жизнь. Архив: 1941—1945 годы

О чем писали в журнале «Наука и жизнь» в годы Великой Отечественной войны?

Наука и жизнь
Открыть в приложении