Financial Times Переводы из Financial Times
Поддержите MT!
Financial Times

Как снизить виральность фейков в соцсетях

Фейковые новости разлетаются быстрее ковида, но есть простые способы ограничить их распространение

Александр Авилов / Агентство «Москва»

В 1964 г. в журнале Nature вышла статья «Эпидемии и слухи», в которой два математика, Ди-Джей Дейли и Ди-Джи Кендалл, использовали модели, применяемые при изучении распространения болезней, для анализа того, как множатся слухи. Людей разделили на три группы: «восприимчивых» к слуху; тех, кто уже «заражен» и распространяет его; и тех, кто больше не передает слух, — их назвали «мертвыми, изолированными или имеющими иммунитет».

Мозг, зараженный, вирусом лжи и дезинформации, — очень сильный образ. Более полувека спустя после исследования Дейли и Кендалла мы имеем дело с онлайн-слухами, которые распространяются, как чума. Встает вопрос: возможно ли прерывать эти сверхзаразные волны так же, как мы боремся с распространением вирусов?

В 2020 г. эта тема приобрела особую остроту, когда Всемирная организация здравоохранения (ВОЗ) предупредила об «инфодемии» в связи с распространением дезинформации о COVID-19. Фейковые новости «распространяются быстрее и легче, чем этот вирус», заявила ВОЗ.

Вскоре после этого Юлиан Каук из Йенского университета в Германии рассказал, что проверил это утверждение, применив модель Дейли и Кендалла к распространению теорий заговора о коронавирусе. Модель Каука воспроизводила передачу в Twitter слуха о распространении коронавируса в течение первых шести месяцев 2020 г.; в результате были выявлены те же «волнообразные формации», что и при распространении коронавируса в реальном мире.

Каук также изучил эффективность двух контрмер, направленных на пресечение потока ложной информации. Как он выяснил, на ранних стадиях фактчекинг очень эффективно пресекал миграцию ложного контента, но этот метод очень быстро терял эффективность, если применялся слишком поздно. Вторая мера, удаление фейковых твитов, оказала ограниченное воздействие на распространение слуха, но в меньшей степени зависела от времени применения.

В 2018 г. Цзиеунь Шинь из Университета Флориды также обнаружила, что слухи, как и обычные вирусы, имеют тенденцию «мутировать» и вновь появляться, как зомби. Изучая сообщения в Twitter в течение 13 месяцев во время президентской кампании 2012 г. в США, она отследила жизненные циклы 17 популярных политических слухов. Как она мне рассказала, социальные сети с тех пор пытались бороться с этой проблемой, пытаясь замедлить распространение фейкового контента. Например, Twitter применил такой инструмент — стал просить пользователя прочитать статью из твита, который тот хотел переслать со своим комментарием. «Даже простое требование остановиться и подумать, что они хотят написать, снижает вероятность распространения дезинформации», — говорит Цзиеунь Шинь. Twitter сообщил, что на ранней стадии тестирования пользователи кликали на ссылку на 40% чаще, если их просили прочитать-таки статью по ссылке, которую они хотели ретвитнуть. То есть простые изменения в дизайне могут помочь затормозить «суперраспространителей» онлайн-инфекции.

Именно это и предлагает делать специалист по обработке данных и бывшая сотрудница Facebook Фрэнсис Хоген, которая рассказала миру о том, как устроен бизнес соцсети. Хоген обвиняет Facebook в том, что ее алгоритмы помогают распространять ненависть и дезинформацию, а при выборе между прибылью и интересами пользователей компания регулярно предпочитает первое. В интервью Financial Times Хоген сказала, что социальную платформу можно сделать более безопасной, не прибегая к помощи модераторов, не трогая созданный пользователями контент и не принимая политизированные решения о том, что оставить в сети, а что удалить. «Собственные исследования Facebook указывают на многочисленные решения, которые я называю „нейтральными по отношению к контенту“. И вопрос не в том, выбирать ли хорошие или плохие идеи, а том, чтобы сделать распространение идей более безопасным», — сказала она.

Решения по замедлению распространения контента до, как это формулирует Хоген, «человеческого измерения» могут включать в себя как раз изменения в дизайне: ограничение численности групп (как в WhatsApp), требование к пользователям копировать и вставлять гиперссылку (а не просто кликать «Поделиться»), если цепочка распространения выходит за пределы круга друзей друзей. Facebook заявила, что частично использовала этим методы, но назвала их «грубоватыми», поскольку они одинаково ограничивают распространение любого контента, как оскорбительного, так и благожелательного.

Изменения, о которых говорит Хоген, кажутся мелкими, но, по ее словам, исследования в Facebook, когда она там работала, показали, что они способны радикально снизить скорость, с которой сообщение разлетается по сети. «Это может отнять один или полпроцента прибыли, но оказывает такой же эффект на пресечение дезинформации, как целая программа работы привлеченных со стороны фактчекеров, и это эффективно на любом языке», — говорит она.

Но такие технологии-предохранители входят в противоречие с фундаментальной бизнес-моделью всех социальных платформ, которые превыше всего ставят все более активное вовлечение все большего количества пользователей и быстрый рост. Однако они могут быть исключительно важны для предотвращения раскола в обществе и поддержания его психического здоровья.

Эпидемиологам пока не удалось остановить распространение коронавируса, однако методы борьбы с ним уже опробованы и реализуются на практике. Facebook следует обратить на это внимание.

Мнение автора может не совпадать с позицией редакции The Moscow Times.

читать еще