Дипфейки как информационное оружие будущего

Ложные новости и фейковые рассылки в мессенджерах казались нам главной проблемой XXI века. Но уже сейчас на смену им приходят дипфейки (deepfakes). Искусственный интеллект имитирует речь и движения человека, довольно реалистично представляя слова и действия, которых в действительности не говорилось и не происходило.

Дипфейки как информационное оружие будущего

«Дипфейк — не просто поддельное видео, а видеоролик, созданный компьютерным алгоритмом из огромного количества изображений. Алгоритм учится имитировать этот контент», — так говорит эксперт по вопросам национальной безопасности Эндрю Гротто о фейковых видео в сюжете издания Associated Press.

Эндрю Гротто считает, что в течение следующего года-двух человеку станет крайне сложно отличить реальное видео от поддельного.

Начало: Обамафейк

В этом году издание BuzzFeed совместно с режиссером Джорданом Пилом выложили в сеть «обращение» Барака Обамы к Дональду Трампу. На видео Барак Обама называет «засранцем» нынешнего президента США. В действительности Обама вовсе не говорил таких слов. Видеоролик был сделан при помощи программ FakeApp и Adobe After Effects. BuzzFeed провели этот эксперимент, чтобы показать влияние, которое может быть достигнуто от нового вида фейков.


По словам продюсера, клип создали с помощью комбинации программ для редактирования видео, которые используют машинное обучение.

Дипфейки имитируют мимику и эмоции человека, а не только речь и действия. Эксперимент Университета Карнеги-Меллона помог понять еще одну способность дипфейков: подделать видео можно не только с лицами людей.Дипфейки как информационное оружие будущего

В ходе эксперимента четыре сотрудника университета — Ааюш Бэнсал, Шугао Ма, Дева Раманан и Язер Шейх улучшили конструкцию создания дипфейков. Ученые назвали разработку Recycle-GAN. На презентации проекта ученые показали превосходство Recycle-GAN над предыдущей программой Cycle-GAN, который мог подделывать видео только с лицами людей.

После BuzzFeed исследователи стали вторыми, кто позаимствовал изображение лица двух президентов США для эксперимента с дипфейками. Почему снова их? Эти два президента совершенно разные и их фото очень много в интернете. Ученые из университета Карнеги-Меллона создали видео, в котором Дональд Трамп и Барак Обама повторяют движения лиц друг у друга. В другом клипе действия Барака Обамы идентичны действиям Мартина Лютера Кинга из черно-белого ролика, снятого в прошлом веке.

При этом технологию можно использовать не только для дипфейков, но и для редактирования видео с цветами или облаками.

Recycle-GAN основан на механизме GAN, который расшифровывается как генеративно-состязательная сеть. Как мы уже отметили, для создания дипфейка достаточно программы с машинным обучением. Такие конструкции построены всего из двух нейросетей. Первая нейросеть генерирует образы, а вторая — отбирает и фильтрует результаты, используя для этого заданные критерии. В результате мы видим, как, например, дерутся два терминатора, или как сражается Аватар.

Новые горизонты порнографии

Ученые из пяти университетов, которые изучают нейросети, провели эксперимент под названием «Deep Video Portraits». В отчёте эксперимента они описывали усовершенствованную систему изображения речи, мимики и движений определенной персоны на лице другой. Издание TechCrunch предположило, что скоро появится новая волна дипфейков. Так и произошло: хакеры начали создавать фейковые порновидео, где вместо лиц актеров показываются лица звезд.

«Наш результат почти неотличим от реального видео», — уверены эксперты. К сожалению, так и есть. Однако, искусственный интеллект не может сымитировать звук. Но создавали её, скорее всего, не для этого, ведь на видео можно включить озвучку, где актёр передаст с точностью эмоции личности на экране.

Дипфейки как информационное оружие будущего

«Я понимаю этические последствия. Это еще одна причина, почему мы опубликовали наши результаты. Я думаю, важно, чтобы люди понимали возможности манипуляционных технологий», — говорит Юстус Тайс, один из авторов исследования.

Пентагон и борьба с дипфейками

Дипфейки могут испортить жизнь отдельным людям и даже спровоцировать политический кризис. Вспомните, к чему приводят фейковые рассылки в WhatsApp.

Дипфейки как информационное оружие будущего

Что же, если фейки создаются с помощью искусственного интеллекта, следовательно, и для борьбы с ними нужно использовать нейросети. Так и поступили в Пентагоне — управление перспективных исследовательских проектов Министерства обороны США (DARPA) запустило алгоритм выявления фальшивых видео.

Экспертам удалось обнаружить у дипфейков ряд существенных недостатков:

  • Люди на таких видео моргают крайне редко
  • Либо неестественно моргают и двигают глаза в разные стороны
  • Совсем НЕ моргают.

Дипфейки как информационное оружие будущего

Помимо этого можно обнаружить подозрительную подвижность головы, необычный оттенок глаз или неестественные физиологические знаки.

Сотрудники DARPA работают над созданием ИИ, способным с точностью распознавать эти недостатки и проверять ролик на подлинность. Пентагон привлек на борьбу с дипфейками исследователей из разных университетов США. Ученые из Университета Нью-Йорка уже разработали программу, выявляющую видео-подделки по частоте моргания.

Создатели фейков могут улучшить свои технологии пытаясь сделать их неуязвимыми для ИИ-разоблачителей. Например, «скормив» нейросети изображения людей с закрытыми глазами, можно создать видео, где они будут убедительно моргать. С другой стороны — и противодействие не заставить себя ждать.

В любом случае, говорить о скорой окончательной победе над дипфейками не приходится — скорее, о начале новой гонки информационных вооружений.

А как же голос?

С недавних пор можно подделывать не только движения человека на видео, но и голос на аудио. Можно предположить, что теперь в судах аудиозаписи потеряют свою былую доказательность — они перестали быть оригинальными, теперь (при наличии образцов голоса) можно подделать голос любого человека и заставить его говорить всё, что захочешь.

Аудиоредактор Adobe Project Voco или «фотошоп для голоса»

Дипфейки как информационное оружие будущего

Проект Voco анонсировали в ноябре 2016 года на конференции Adobe MAX 2016. Программе Voco требуется всего 20 минут, чтобы обучиться копировать оригинальный голос человека. За это время программа разбивает голос человека на отдельные фонемы, и на основе этого формирует искусственную речь.

Программа Lyrebird

Дипфейки как информационное оружие будущего

В апреле 2017 года студенты из Монреальского института обучения алгоритмам (Канада) разработали программу Lyrebird. Данное программное обеспечение использует искусственный интеллект, чтобы синтезировать голос абсолютно любого человека всего 1 минуту. В качестве примера стартап-компания показала аудио, в котором Дональд Трамп, Барак Обама и Хиллари Клинтон обсуждают потенциал Lyrebird.

Как можно заметить, работа робота тут вполне ощутима даже на слух. Пока качество такой имитации гарантировано лишь при довольно большом труде со стороны производителя копии голоса. Однако, технологии развиваются, и для анализа фейка, созданного с помощью данного ПО, потребуется привлечение специалиста-звукоинженера. Провести его самостоятельно не представляется возможным.

Журналист factcheck.kz

Factcheck.kz