Содействие и усиление разжигания ненависти и дезинформации со стороны Facebook было ключевой темой в последние четыре года, но тем более в хаосе 2020 года. COVID-19, движение #BlackLivesMatter и президентские выборы в США — все это по-своему, подчеркнули роль, которую Facebook может сыграть в распространении опасных повествований и, как следствие, в посеве разделения.

Действительно, Facebook в настоящее время сталкиваясь с трудными вопросами еще раз по поводу роли, которую он играет в распространении ложных утверждений о результатах выборов, в то время как в других регионах кампании дезинформации на платформе привели к жестокие конфликты, и поставили под угрозу демократический процесс.

Нет сомнений в том, что огромный охват Facebook играет значительную роль на обоих фронтах, но Facebook стремится указать, что он работает над рассмотрением таких заявлений и что он развивает свои процессы для решения этих проблем.

Это послание последнего обновления Facebook об удалении контента в рамках Отчет о соблюдении стандартов сообщества, который впервые теперь включает показатель распространенности языка вражды на платформе как часть своего обзора.

Как объяснил Facebook:

«Распространенность оценивает процент случаев, когда люди видят на нашей платформе контент, нарушающий закон. Мы рассчитываем распространенность языка вражды, выбирая образец контента, увиденного на Facebook, и затем маркируя, насколько он нарушает нашу политику в отношении языка вражды. На основе этой методологии мы оценили распространенность языка вражды. Распространенность языка вражды с июля 2020 года по сентябрь 2020 года составляла от 0,10% до 0,11%. Другими словами, из каждых 10 000 просмотров контента на Facebook от 10 до 11 были высказаны разжигания ненависти ».

Что не совсем так? Только 0,10% просмотров контента Facebook содержат в той или иной форме язык вражды. Это очень хорошо. Правильно?

Здесь важно учитывать масштаб: как отмечает Facebook, 10 из 10 000 — это немного. Но у Facebook больше, чем 2,7 миллиарда активных пользователей, и, например, если бы каждый пользователь Facebook видел только одно сообщение в месяц, это все равно означало бы, что 2,7 миллиона человек по-прежнему будут видеть контент, разжигающий ненависть. И это далеко не показатель общего количества просмотров на Facebook — поэтому, хотя данные о распространенности здесь положительные, в масштабе Facebook это все же означает, что многие люди подвергаются разжиганию ненависти на платформе.

Но Facebook обнаруживает и удаляет больше — по данным Facebook, его автоматические средства обнаружения теперь улавливают гораздо больше случаев языка вражды, прежде чем кто-либо их заметит.

«Когда мы впервые начали сообщать о наших показателях языка вражды, в четвертом квартале 2017 года уровень нашего упреждающего обнаружения составлял 23,6%. Это означает, что среди удаленных нами высказываний ненависти 23,6% были обнаружены до того, как пользователь сообщил нам о них. Сегодня мы заблаговременно выявляем около 95% удаляемого содержания, разжигающего ненависть «.

Удаление языка вражды в Facebook

Facebook также увеличил количество удалений в последние месяцы, что будет включать его решение удалить QAnon-связанный контент.

Удаление языка вражды в Facebook

Действительно, Facebook отмечает, что он усилил принудительные меры против большего количества групп, связанных с ненавистью:

Читайте также:
Pinterest делится своим последним отчетом о прозрачности, в котором отмечается удаление контента в первой половине 2020 года

«Мы предприняли шаги по борьбе с белым национализмом и белым сепаратизмом; введены новые правила в отношении контента, призывающего к насилию в отношении мигрантов; запрещенное отрицание холокоста; и обновили нашу политику, чтобы учесть определенные виды скрытых ненавистнических высказываний, такие как контент, изображающий блэкфейс, или стереотипы о еврейском народе, контролирующем мир «.

Это все хорошо, но все еще есть опасения из-за масштабов Facebook. Когда вы контролируете платформу, которая может предоставить кому угодно доступ к потенциально миллиардам людей, это связано с бременем ответственности, и хотя Facebook сейчас стремится улучшить свои правоприменительные меры, во многих случаях все еще слишком поздно.

В случае с QAnon Facebook неоднократно предупреждался о потенциальных опасностях, исходящих от движений, связанных с QAnon, с примерами реального насилия, проистекающими из обсуждений QAnon, имевших место еще в 2016 году. Несмотря на это, Facebook позволил группам QAnon процветать за счет своих платформа — внутреннее расследование, проведенное Facebook в этом году, и просочившееся Новости NBC, обнаружил, что платформа стала домом для тысяч групп и страниц QAnon с миллионами участников и последователей.

Facebook начал менять свой подход к QAnon еще в августе, но к тому времени ущерб был в значительной степени нанесен.

Как отметил бывший президент Барак Обама в недавнем интервью телеканалу Атлантический океан:

«Теперь у вас есть ситуация, в которой большая часть страны искренне верит, что Демократическая партия является прикрытием для сети педофилов. Эта фигня приживается. Я разговаривал с добровольцем, который ходил по домам в Филадельфии в малообеспеченных афроамериканских общинах, и получал вопросы о теориях заговора QAnon. Дело в том, что есть еще большая часть страны, которую захватил карнавальный зазывал ».

Обама назвал это «т«Самая большая угроза нашей демократии» — и Facebook, опять же, долгое время был ключевым посредником в этом.

Конечно, ретроспективно Facebook мало что может с этим поделать, поэтому тот факт, что он предпринимает больше действий, является положительным, как и запуск независимого Совет по надзору чтобы помочь с правилами содержания. Но по-прежнему существуют серьезные опасения по поводу того, как Facebook и социальные сети в более широком смысле позволяют распространять группы ненависти.

Что затем приводит к дезинформации. Как уже отмечалось, помимо заговоров против вакхеров и вопросов относительно достоверности результатов выборов в США, Facebook также способствует распространению опасной дезинформации в других регионах по всему миру, при этом небольшие страны особенно подвержены распространению лжи через Социальную сеть. .

Как сообщает Вице, недавний, политически мотивированная дезинформационная кампания организованная в Facebook, привела к гражданским беспорядкам в Эфиопии, где конкурирующие группы использовали возможности платформы, чтобы очернить соперников и сеять раскол.

Последний инцидент был вызван убийством популярного певца, которого ложно назвали политическим активистом. Его смерть вызвала ожесточенные столкновения в стране.

Согласно Вице:

Читайте также:
Facebook удаляет вкладку "Другие" из папки "Входящие"

«Это кровопролитие было усилено почти мгновенным и широко распространенным распространением ненавистнических высказываний и подстрекательством к насилию в Facebook, что вызвало гнев людей. Толпы уничтожили и сожгли собственность. Они линчевали, обезглавливали и расчленяли своих жертв».

Связывание всех беспорядков с Facebook может быть несправедливым, поскольку семена конфликта уже присутствовали. Но платформа помогла таким людям, предоставив активистам платформу для распространения ложных сообщений.

Facebook также борется с этим — в отдельный обзорFacebook подробно описал, как он улучшает свои системы обнаружения ИИ, чтобы лучше обнаруживать ложную информацию, и, в частности, отсеивать повторяющиеся версии одних и тех же ложных отчетов, чтобы замедлить их распространение.

Facebook обнаруживает ложную информацию

Как объяснил Facebook:

«Сейчас мы представляем новые системы ИИ для автоматического обнаружения новых вариаций контента, которые уже опровергли независимые специалисты по проверке фактов. Как только ИИ обнаружит эти новые варианты, мы можем пометить их, в свою очередь, нашим партнерам по проверке фактов для проверки.«

Он также добавляет новые процессы для обнаружения дипфейков — поэтому Facebook совершенствуется, он делает больше для решения этих проблем.

Но опять же, как отметила группа модераторов Facebook в письмо в компанию, который был опубликован в СМИ на этой неделе, Facebook Инструментам обнаружения искусственного интеллекта еще «далеко до достижения необходимого уровня сложности для автоматической модерирования контента».

С одной стороны, Facebook говорит, что ситуация становится намного лучше, но с другой стороны, люди, работающие на передовой, говорят, что им еще далеко.

Читайте также:
Facebook подает судебный иск против сборщиков данных в рамках последних мер по обеспечению соблюдения

Означает ли это, что мы можем верить, что Facebook делает достаточно, чтобы остановить распространение разжигающих ненависть высказываний и дезинформации, или нужно делать больше, помимо Facebook, для усиления регулирования и обеспечения соблюдения этих требований?

Кажется, несмотря на заверения Facebook, проблемы все еще значительны.



Source link

blank