ВИЛЬНЮС, 27 мая — Sputnik. Секретные правила и инструкции Facebook, в соответствии с которыми модераторы определяют, что именно два миллиарда пользователей этой социальной сети могут или не могут публиковать на сайте, впервые попали в руки репортеров Guardian.
Журналисты занимаются расследованием, которое, вероятнее всего вызовет новую волну споров о роли и этических принципах этой гигантской социальной сети. Рассуждения о расследовании журналиста Ника Хопкинса из британского издания Guardian передает ИноСМИ.
По слухам, многие модераторы недовольны непоследовательностью и странностью некоторых правил. Особенно сложными и запутанными являются правила, касающиеся контента сексуального характера.
Руководство Facebook составило инструкции, в которые вошли нескольких тысяч слайдов и иллюстраций и которые могут вызвать беспокойство у критиков, убежденных в том, что Facebook как крупный издатель должен уделять больше внимания удалению насильственного, вредного и опасного контента.
Однако эти инструкции могут также встревожить защитников свободы слова, убежденных в том, что Facebook фактически уже превратился в крупнейшего в мире цензора. Обе стороны, скорее всего, потребуют увеличить прозрачность.
Почему бранные слова не несут в себе угрозы
В одном из этих документов руководство Facebook признает, что "люди пользуются резкими формулировками и бранными словами, чтобы выразить в сети свое недовольство и раздражение", и что они "чувствуют себя в безопасности", делая это.
В документе говорится: "Они предполагают, что сказанное ими никогда больше не вернется к ним, и они не испытывают никаких чувств по отношению к человеку, в адрес которого они высказывают угрозы, из-за отсутствия эмпатии, вызванного тем, что люди общаются посредством электронных устройств, а не лицом к лицу".
"Стоит отметить, что агрессивные высказывания, как правило, не представляют собой реальные угрозы, если только характер формулировок не дает нам веские поводы подозревать, что речь идет не просто о выражении неких эмоций, а уже о каком-то конкретном замысле или плане. С этой точки зрения, выражения типа "я тебя убью" или "отвали и сдохни" — это не реальные угрозы, а всего лишь выражения недовольства и раздражения".
Консенсуса достичь непросто
Моника Бикерт, глава отдела глобальной политики Facebook, отметила, что у этой социальной сети — почти два миллиарда пользователей, поэтому достичь консенсуса в вопросе о том, что можно публиковать, а что — нет, крайне трудно.
"Жители планеты придерживаются чрезвычайно разнообразных взглядов, поэтому у них могут быть самые разные представления о том, чем можно делиться, а чем — нет. Где бы мы ни проводили разграничительные линии, всегда будут оставаться "серые зоны". К примеру, границы между юмором, сатирой и неподобающим контентом зачастую очень размыты. Порой очень трудно определить, можно ли публиковать тот или иной контент на сайте", — объяснила она.
"Мы понимаем, что мы несем ответственность за безопасность нашего общества. Мы осознаем эту ответственность. Наш долг — обеспечить безопасность. Это обязательство нашей компании. Мы продолжим вкладывать средства в то, чтобы наш сайт был безопасным, и мы призываем всех пользователей сообщать нам о появлении контента, который нарушает наши стандарты".
По ее словам, есть такие оскорбительные комментарии, которые могут нарушать политику Facebook в одном контексте и не нарушать в другом.
Модерация насильственного контента
Попавшие в руки репортеров Guardian документы, касающиеся модерации контента насильственной тематики, включая сцены насильственной смерти, насилия над детьми несексуального характера и жестокого обращения с животными, демонстрируют то, как руководство сайта пытается идти по этому минному полю.
В документах говорится: "Видео сцен насильственной смерти шокируют, однако они могут помочь повысить уровень осведомленности. Что касается видеороликов, мы считаем, что несовершеннолетние нуждаются в защите, а взрослые люди — в выборе. Мы ставим специальные пометки на видеороликах со сценами насильственной смерти людей".
Такие видеоролики должны быть "спрятаны от несовершеннолетних", но их не стоит удалять автоматически, потому что они могут "оказаться ценными в процессе повышения осведомленности в таких вопросах, как нанесение себе увечий, психические расстройства, военные преступления и так далее".
Что касается насилия над детьми несексуального характера, в документах Facebook сказано: "Мы не удаляем фотографии сцен насилия над детьми. Мы ставим специальную пометку "disturbing" на видеоролики со сценами насилия над детьми. Мы удаляем фото- и видеоматериалы со сценами насилия над детьми, если они включают в себя элементы садизма или восхваления насилия".
Фотографии искалеченных животных, а также фотографии со сценами пыток, скорее будут отмечены как "травмирующие", а не удалены. Модераторы также могут пропустить фотографии насилия над животными, на которых человек избивает животное.
В документах Facebook говорится: "Мы позволяем пользователям делиться фотографиями и видео со сценами насилия над животными, чтобы повысить уровень осведомленности и обличить насилие, но мы удаляем контент, в котором насилие над животными восхваляется".
Правила для бумажных СМИ не подходят
Некоторые критики в Европе и США требуют, чтобы в отношении Facebook действовали те же правила, которые действуют в отношении бумажных СМИ и издательств. Но Бикерт говорит, что Facebook — "это новый тип компании. Это не традиционная технологическая компания и не традиционная информационная компания. Мы создаем технологию и несем ответственность за то, как она используется. Мы не пишем те новости, которые люди читают на нашей платформе".
Сара Робертс, эксперт в вопросах модерации контента, отметила: "Одно дело, если вы являетесь небольшим онлайн-сообществом, в которое входят люди сходных взглядов и принципов, но, если пользователи вашей социальной сети составляют весомую долю мирового населения, и вы позволяете каждому из них делиться своими мыслями, вы неизбежно столкнетесь с проблемами". "А когда вы монетизируете эту практику, вы столкнетесь с настоящей катастрофой".