Facebook решил не удалять из Instagram фейковое видео с Цукербергом

Компания Facebook заявила, что не будет удалять из Instagram фейковое видео, в котором глава Facebook Марк Цукерберг якобы говорит, что его компания достигла успеха благодаря помощи какой-то секретной организации. Об этом сообщает Русская служба BBC.

Этот клип является примером так называемого «глубокого фейка» (также известного, как deepfake или «дипфейк»). Подобные видео делаются при помощи искусственного интеллекта, который использует фотографии реального человека и на их основе создает фальшивый ролик, в котором человек говорит то, что ему вкладывают в уста создатели дипфейка.

 

Посмотреть эту публикацию в Instagram

 

Публикация от Bill Posters (@bill_posters_uk)

Facebook недавно подвергалась критике за то, что отказалась заблокировать фейковое видео, на котором спикер Палаты представителей конгресса США Нэнси Пелоси выглядит пьяной (на самом деле видео было просто замедлено).

Компания заявляет, что разрабатывает специальные программы, чтобы автоматически выявлять неприемлемый контент и удалять его со своих платформ.

Кроме того, Facebook разрабатывает программы, которые помогут ее сотрудникам досконально изучать потенциально вредоносный контент.

Глубокий фейк Цукерберга был создан в рамках арт-проекта и демонстрируется в британском городе Шеффилд. Цель проекта — привлечь внимание к тому, как легко манипулировать сознанием людей при помощи соцсетей.

Созданное при помощи компьютера изображение Цукерберга наложено на видеозапись его выступления в 2017 году в офисе Facebook в Калифорнии. Слова фейкового Цукерберга произносит нанятый актер.

16-секундный клип появился в Instagram в субботу, но был замечен широкой публикой лишь после того, как во вторник о его существовании сообщил сайт Motherboard.

Сайт правда отмечает, что результат выглядит реалистично лишь при выключенном звуке, так как в противном случае становится ясно, что кто-то пытается скопировать голос Цукерберга.

Аккаунт в Instagram добавил к этому видеоклипу хэштег #deepfake.