Facebook и Google годами финансировали распространение фейков — расследование MIT Technology Review

Технологические гиганты платят миллионы долларов операторам кликбейт-страниц, финансируя тем самым распространение плагиата и фейков в разных странах. Об этом говорится в расследовании издания Массачусетского технологического института MIT Technology Review.

Случаи в Мьянме 

Большое расследование начинается с кейса Мьянмы: спустя месяц после недавнего  военного переворота и падения демократического правительства на платформе Facebook Live появилась прямая видео-трансляция уличных протестов. В итоге она набрала более 1,5 миллионов просмотров, а репостнули его почти 50 тысяч человек. Однако не прошло и дня, это же видео появилось снова и снова «транслировалось онлайн». В результате пользователи сервиса уже не могли понять, что происходит в реальности. 

По данным сервиса анализа активности аккаунтов CrowdTangle, который был запущен Facebook в 2015 году, шесть из 10 наиболее активных в соцсети мьянманских информационных сайтов являлись официально зарегистрированными СМИ. Но вскоре Facebook предложил новую возможность: публикацию прямо в соцсети журналистских материалов, которые редакции могли использовать для монетизации — и ситуация изменилась.

Уже спустя год только два из 10 топовых информационных сайтов на Facebook оказались средствами массовой информации. А уже к 2018 году СМИ в этом списке не было вовсе. Вместо этого аудитория вовсю читала фейковые новости и клевала на кликбейтные ресурсы. В августе 2017 группа боевиков рохинджа (мусульманского этнического меньшинства) атаковала и убила сотрудников правительственных сил безопасности. Полиция и военные начали оказывать давление на рохинджа и распространять антимусульманскую пропаганду. Фейковые новости о вооружённых агрессивных рохинджа стали вирусными. 

Источники тех фейков до сих пор не раскрыты. Но в любом случае огромное количество дезинформации стало катализатором роста этнической и религиозной напряженности в стране. Распространяемая пропаганда изменила общественное мнение и обострила конфликт, который в конечном итоге привел к гибели 10 тысяч рохинджа.

В 2018 году расследование ООН установило, что насилие в отношении рохинджа представляет собой геноцид и что Facebook сыграл в этой ситуации «определяющую роль». Спустя несколько месяцев Facebook признал, что сделал недостаточно для предотвращения разжигания насилия. 

Недавняя скандальная публикация внутренних документов Facebook подтвердила: алгоритмы соцсети распространяют провокационный контент, при этом администрация не способна уделять достаточного внимания модерации контента за пределами США и ЕС. В итоге это способствует распространению дезинформации, языка ненависти, а также дестабилизации стран в разных уголках планеты. 

И, как говорится в расследовании MIT Technology Review, основанном на анализе данных и документов, Facebook и Google платят миллионы долларов, финансируя распространителей фейков. 

Монетизация без контроля 

Facebook запустил программу Instant Articles, предполагающую монетизацию журналистского контента, в 2015 году совместно с несколькими крупными СМИ из США и Европы. Программа презентовалась как способ сократить время загрузки журналистских материалов и возможность сделать пользовательский интерфейс более дружелюбным. 

Журналистские материалы теперь открывались непосредственно в приложении Facebook, без перенаправлений на другие интернет-ресурсы, таким образом, соцсеть завладела рекламным пространством. 

Instant Articles быстро потерял популярность среди крупных и богатых редакций из передовых стран. Для них выплаты оказались недостаточно высокими по сравнению с другими формами монетизации контента. Но для игроков из развивающихся стран, которых Facebook начал принимать в программу с 2016 года, всё было по-другому. Уже в 2018 году компания сообщила о выплате им 1,5 миллиарда долларов, а к 2019 году эта цифра достигла нескольких миллиардов.

Поначалу Facebook плохо контролировал качество издателей контента, присоединяющихся к программе. Правила платформы также не предусматривали существенных наказаний пользователей за публикацию идентичного контента на других страницах Facebook. Это при том, что размещение одной и той же новостной заметки на нескольких страницах может в несколько раз увеличить количество кликнувших на неё пользователей, что скажется на доходе от рекламы.

Кликбейт-фермы по всему миру ухватились за этот изъян и используют его до сих пор.

Дельцы создают сайты для публикации плагиата, затем регистрируют их в Instant Articles и Audience Network, а после материалы распространяются на нескольких десятках страниц Facebook одновременно.

В той же Мьянме, где расплодились создатели кликбейт-ферм, дельцы получили возможность зарабатывать тысячи долларов США в месяц с дохода от рекламы, а это в разы больше средней месячной выплаты от Facebook. Авторы MIT Technology Review заявляют, что проблема глобальна. Тысячи манипуляций с публикациями контента в соцсети проводятся в странах, где выплаты Facebook обеспечивают более весомый и стабильный источник дохода, чем другие виды доступного заработка. Этим занимаются как отдельные лица, так  и целые команды при помощи дешёвых автоматизированных инструментов массового распространения статей. 

Интересно, что внутренний документ компании, обнародованный MIT Technology Review в октябре, демонстрирует, что Facebook знал о проблеме ещё в 2019 году. Автор документа, бывший специалист по анализу данных Facebook Джефф Аллен, обнаружил, что описанная тактика позволила активно использовать кликбейт-фермы в Македонии и Косово. В какой-то момент до 60% доменов, зарегистрированных в Instant Articles, использовали тактику создания спама, используемую фермами кликбейтов.

Несмотря на давление со стороны как внутренних, так и внешних исследователей, Facebook изо всех сил пытался пресечь злоупотребления. Одновременно компания разворачивала всё больше программ монетизации. Помимо рекламных пауз для видео, была реализована монетизация IGTV для Instagram и реклама In-Stream для видео в прямом эфире. 

Также исследователи сообщают о просчётах компании Google. Его сервис контекстной рекламы AdSense использовался для ферм в Македонии и Косово, ориентированных на американскую аудиторию в преддверии президентских выборов 2016 года. И именно AdSense стимулирует новых участников публиковать на YouTube вирусную дезинформацию.

Многие кликбейт-фермы сегодня монетизируются как с помощью Instant Articles, так и с помощью AdSense, получая выплаты от обеих компаний. 

Дельцы и политика

В ответ на выводы, которые авторы исследования предоставили техногигантам, компания Google подтвердила, что описанные злоупотребления нарушают её политику, и закрыла все каналы YouTube, которые были определены MIT Technology Review как распространяющие дезинформацию. 

«Мы прилагаем все усилия, чтобы защитить зрителей от кликбейтов или вводящего в заблуждение контента на наших платформах, и вложили значительные средства в системы, предназначенные для повышения авторитетности информации», — заявила представитель YouTube Айви Чой.

А представитель Meta Джо Осборн заявил, что исследователи неправильно понимают суть проблемы. 

«Несмотря ни на что, мы много лет инвестировали в создание новых масштабируемых решений этих сложных проблем, основанных на экспертных оценках, и будем продолжать это делать», — сказал он.

По словам Осборна, за последние два года Facebook создал несколько новых политик и протоколов для решения проблемы, включая наказание страниц, выдаваемых за местные в чужих странах, а также штрафы за страницы, которые заманивают аудиторию кликбейтами. 

В ответ на отчёт MIT Technology Review директор по устранению глобальных угроз в Facebook Дэвид Агранович написал в Twitter о том, что исследователи ошибочно описывают как одно явление дельцов, жаждущих монетизации контента, и деятелей, заинтересованных в политическом воздействии на массы. 

Однако, авторы MIT Technology Review, ссылаясь на экспертов по дезинформации, высказывают мнение, что чёткая грань между финансово мотивированными спамерами и участниками политических кампаний — это иллюзия. Потому что только в теории финансово мотивированные дельцы безразличны к публикуемому контенту, — лишь бы платили, — а политические игроки заинтересованы лишь в продвижении нужных им взглядов. На практике разницы нет, утверждают авторы, и приводят пример Филиппин перед выборами президента Родриго Дутерте в 2016 году. Во время президентской гонки кликбейт-ферма, официально зарегистрированная как компания Twinmark Media, вдруг перешла от публикации привычного развлекательного контента к продвижению политика.

В то время было широко распространено мнение, что Twinmark наняли специально для проведения информационной кампании. Но в интервью журналистам и исследователям бывшие сотрудники Twinmark признались, что просто гнались за прибылью, потому что контент в поддержку Дутерте оказался востребован. 

В итоге Дутерте начал доминировать в социальных сетях, а через три месяца после его победы на выборах Мария Ресса, генеральный директор медиакомпании Rappler (получившая в этом году Нобелевскую премию мира в том числе за борьбу с дезинформацией), опубликовала статью, в которой высказала мнение о том, как предвыборная информационная кампания в соцсетях сдвинула мнение общественности. 

«Это стратегия “смерти от тысячи порезов” — отщипывание от фактов, использование полуправды, которые создают альтернативную реальность, объединяя возможности ботов и фальшивых аккаунтов в социальных сетях для манипулирования реальными людьми», — написала она.

В 2019 году Facebook, наконец, удалил 220 страниц, 73 аккаунта и 29 аккаунтов Instagram, связанных с Twinmark Media. К тому времени Facebook и Google уже заплатили ферме 8 миллионов долларов (400 миллионов филиппинских песо).

Ни Facebook, ни Google эту сумму не подтвердили. А Джо Осборн из Meta даже высказал несогласие с версией о том, что Facebook повлиял на те выборы.

Внесите свой вклад в борьбу с дезинформацией!
Сергей Ким
Журналист, медиакритик, фотограф. Работал на телевидении и радио, сотрудничал с проектом «Радиоточка» до его закрытия в 2017 году. Возглавлял алматинскую редакцию проекта «Спутник-Казахстан», ведёт колонку медиакритики для проекта NewReporter.org