Facebook имеет обновила систему очередей на модерацию контента, что должно привести к значительным улучшениям в работе с сообщениями о наихудших случаях и замедлению распространения вредоносного контента.

Новый процесс использует усовершенствованные процессы машинного обучения для категоризации сообщаемого контента, как объясняет Грани:

«В прошлом, [Facebook’s] Модераторы просматривали сообщения более или менее в хронологическом порядке, работая с ними в том порядке, в котором они были представлены. Теперь Facebook заявляет, что хочет, чтобы самые важные сообщения были видны первыми, и использует машинное обучение, чтобы помочь. В будущем для сортировки этой очереди будет использоваться смесь различных алгоритмов машинного обучения, приоритезация сообщений на основе трех критериев: их виральность, серьезность и вероятность нарушения правил ».

Приоритетность отчетов Facebook

Этот процесс гарантирует, что команда модераторов Facebook будет направлена ​​в первую очередь на отчеты о наихудших случаях, оптимизируя свою рабочую нагрузку и ограничивая их распространение на основе автоматического обнаружения.

Очевидно, это не будет идеально. Любой автоматизированной системе будет сложно определить правильный порядок таких случаев со 100% точностью, в результате чего некоторые из наиболее тревожных случаев могут оставаться активными дольше, чем другие. Но это было бы не намного хуже, чем текущая ситуация — и с учетом Facebook, учитывающего «виральность», которая, как вы могли предположить, учитывает потенциальный охват публикации на основе подписок, истории и т.д. может привести к значительным улучшениям.

Facebook в различных случаях оказывался под значительным давлением из-за медленного времени отклика при обращении к потенциально опасному контенту.

Читайте также:
Facebook хочет стать «враждебной средой» для террористов

Еще в мае было видео о теории заговора Plandemic. набрал почти 2 миллиона просмотров на Facebook до того, как компания удалила его, а в июле Facebook допущен это «Заняло больше времени, чем следовало» удалить еще одно видео с заговором, связанное с COVID-19, которое набрало 20 миллионов просмотров до того, как Facebook принял меры.

Возможно, с этими новыми мерами Facebook уделил бы удалению такого контента больший приоритет, учитывая возможность широкого распространения через страницы с высоким охватом и людей, в то время как обнаружение контента на основе « серьезности » также могло бы иметь значительные преимущества. в устранении наихудших видов нарушений, которые публикуются в его сети.

Безусловно, автоматизированные системы Facebook в этом отношении улучшаются. В своем последнем Отчет о соблюдении стандартов сообщества, Facebook сообщает, что 99,5% его действий, связанных с vНасилие и графические материалы были использованы до того, как о них сообщили пользователи.

Нарушения содержания Facebook

Теперь те же самые системы обнаружения будут использоваться для категоризации всех отчетов о модерации, и по мере того, как системы Facebook продолжают совершенствоваться, это может привести к значительному снижению воздействия, связанного с соответствующими материалами в приложении.

В некотором смысле кажется, что у Facebook всегда должна была быть какая-то форма приоритизации, подобная этой, но возможно, что ее системы просто не были способны фильтровать такой уровень до сих пор. Тем не менее, теперь он может улучшить свои процессы, и это может иметь серьезные преимущества для безопасности пользователей.

Читайте также:
Бетти: первая курица с аккаунтом на Twitter



Source link

blank