Так работают центры цензуры в Facebook

Так работают центры цензуры в Facebook

«Заводной апельсин» - это фильм Стэнли Кубрика, который был запрещен во многих странах из-за жестоких образов и двусмысленного послания, которое многие могли неправильно истолковать. В нем власти захватывают жестокого молодого человека и подвергают испытанию, чтобы подавить в его личности свободную волю, то есть применить метод, который сделает его хорошим человеком. Как они это делают? С помощью шоковой терапии: субъект привязан перед гигантским экраном с постоянно открытыми глазами и часами вынужден смотреть неприятные сцены. Когда его отпускают и он чувствует побуждение к совершению насильственных действий, возникает тошнота, обусловленная ситуацией, в которой он оказался несколько дней назад.

Так работают центры цензуры в Facebook

А теперь представьте, что вы смотрите жестокие, неприятные изображения, материалы, разжигающие ненависть, оскорбления, видео с обезглавливанием ... восемь часов в день для большой компании. Ваша работа в этом центре используется для определения того, что другие могут и не могут видеть. Вы работаете в одном из 20 центров, которые Facebook организовал в мире для администрирования цензуры в отношении контента, запрещенного социальной сетью Марка Цукерберга. Eldiario.es имеет доступ к источникам из этих центров в таких городах, как Варшава или Лиссабон, а также к документам, раскрывающим условия, в которых эти агенты должны применять цензуру.

Согласно этим документам, агентам нравственности и хорошего поведения в Facebook приходится работать в плачевных условиях . Офисы без окон, в которых сотни людей должны постоянно фиксировать свой взгляд на экране, на котором происходит гротескный контент, чтобы устранить его, а не расширить. Они, как Алекс в «Заводном апельсине», люди, которые по восемь часов в день видят ужасные образы, не осознавая, к каким последствиям может привести такой поступок. Алгоритмы, о которых мы так много говорим, - не что иное, как такие люди, как вы и я.

facebook 02

Их физические и психические условия труда экстремальны.

Всего в таких центрах работает 15 тысяч человек. Многие из них утверждают, что невозможно быть на 100% справедливым, что в условиях, в которых они работают, и из-за характера задачи сбои могут происходить постоянно. Работники цензуры в Facebook взимают по 700 евро в месяц каждый и нанимают субподрядчиков через международных консультантов, им запрещается рассказывать кому-либо, что они работают на Facebook , всегда называя это «клиентом». Eldiario.es получила заявления трех сотрудников этого типа центра, которые должны сохранить свою анонимность.

Условия труда экстремальные. В восьмичасовой смене у них есть полчаса на отдых , и они должны делать это каждый час, чтобы делать визуальные перерывы, размять ноги, сходить в ванную и даже поесть. В комнате всегда находится рецензент, который отмечает и наказывает за ненадлежащее поведение: остановка сотрудника при выборе изображений, чтобы выпить воды или достать свой мобильный телефон, чтобы что-то проконсультироваться, является поводом для наказания. Кроме того, в рамках программы баллов самих сотрудников поощряют обвинять друг друга, если они видят, что кто-то из их коллег ведет себя наказуемо.

Так работают центры цензуры в Facebook 1

Кем вы работаете?

Работа работает следующим образом. Перед сотрудником находится экран, на котором отображается весь контент, который накопил наибольшее количество жалоб со стороны пользователя. Затем у рабочего есть две опции «Удалить», с помощью которых он удаляет контент, 0 «Игнорировать», если он считает, что не нарушает правила Facebook. Каждый человек может анализировать до 600 дел в день, и у него есть, чтобы нажать одну из двух кнопок принятия решения, в общей сложности тридцать секунд для каждого из них. Нормально, конечно, что несправедливость совершается, учитывая все, что сейчас известно об этих центрах.

Газета приводит примеры реальных случаев, когда опрошенным сотрудникам приходилось вмешиваться. Например, им явилось это изображение, иллюстрация, предупреждающая о раке груди.

соски

Один из алгоритмов, этот автоматический, который уже начал работать, - это алгоритм обработки изображений, на котором можно увидеть женские соски. Однако есть исключения, например, в случае, если изображения информативны . Кажется очевидным, что, глядя на иллюстрацию выше, сотрудник должен «разблокировать» изображение, поскольку оно представляет собой информацию о раке, представляющую общий интерес, а не изображение эротического характера.

ребенок запугивает мем

В этом другом мы видим, как работа, которую выполняют эти модераторы, может быть такой сложной. Это мем, который представляет собой акт запугивания детей? Сотрудник должен в течение тридцати секунд решить, убирать его или нет. Это кадр из реального интервью, ожирение не считается инвалидностью. На Facebook не удаляется ничего, что могло бы кого-то обидеть, кроме того, что кто-то принадлежит к группе инвалидов. В этом случае модератор выберет кнопку «Игнорировать».

Противоречия цензуры в Facebook

Два примера, которые могут быть более или менее ясными, но которые включены во многие другие, где проявляется двусмысленность правил Facebook. Например, контент, относящийся к Гитлеру, автоматически удаляется. Однако контент, в котором извиняются Франко, разрешен. Один из исследователей утверждает, что в Facebook разрешен фашизм. Вы можете заполнить свою стену фотографиями Муссолини, чтобы ничего не случилось. Но берегитесь Гитлера . Или женские соски.

Так работают центры цензуры в Facebook 2

Среди самых безумных решений, которые должны принять цензоры Facebook, - рассмотрение размера бороды арабских мужчин, чтобы определить, являются они террористами или нет; Кроме того, респонденты осуждают явные двойные стандарты в отношении необходимости приносить пользу конкретным группам. « Оскорблять одни убеждения разрешено, а другие полностью запрещены ». Например, сионизм. Любые призывы к бойкоту израильской продукции из-за массовых убийств, проводимых страной в Палестине, подвергаются цензуре. Кроме того, вероятность того, что контент будет удален на Facebook, во многом зависит от власти и организационных возможностей группы, заинтересованной в его исчезновении.

В будущем еще предстоит увидеть психологические последствия, которые будут иметь эти сотрудники Facebook, а также своеобразное идеологическое использование, которое они придают модерации контента.