Модерирование сайта это: Модерация сайта. Предварительная проверка контента

Содержание

что это такое простыми словами и как пройти модерацию — OKOCRM

На практике модерацию ресурса можно осуществлять несколькими устоявшимися способами. Их легко можно комбинировать в зависимости от текущих задач.

Премодерация

Самый доступный, самый тщательный и безопасный способ. Подразумевает, что любые сообщения на ресурсе от сторонних пользователей, будь то публикация статьи или короткий комментарий, размещаются только после предварительной проверки и одобрения модератора.

Премодерация подходит тем ресурсам, которые категорически не приемлют даже кратковременного засвечивания у себя неподобающего контента. Обсценная лексика, спам, реклама, любая запрещёнка — всё это ещё на подлёте попадает в очередь ожидания публикации и появится на ресурсе только после того, как модератор лично нажмёт соответствующую кнопку.

Плюсом такого подхода, конечно же, является полная безопасность. И в современном интернете это уже далеко не паникёрство.

Известны случаи, когда у сайтов были серьёзные проблемы с законом из-за случайно просочившегося запрещённого контента.

Но у такой тотальной защиты есть обратная сторона — низкая оперативность. Премодерация статейных материалов пользователями ещё воспринимается с пониманием. Но вот свои комментарии к статьям каждый хочет видеть здесь-и-сейчас. Особенно, если под статьёй или видео разгорелась в комментариях жаркая дискуссия. Кроме того, сам факт премодерации априори вызывает у части пользователей негативный фидбек.

Но есть компромиссные варианты. Премодерация может применяться как частная мера в индивидуальном порядке. Например, к новым зарегистрировавшимся пользователям, а спустя некоторое количество адекватных постов без нарушений ограничение может быть снято автоматически или вручную модератором.

Постмодерация

Здесь всё с точностью до наоборот. Пользовательский контент публикуется сразу же, а проверка осуществляется уже постфактум.

Преимущества очевидны — максимальная оперативность и удовлетворение пользователей от прозрачности и демократичности ресурса.

Но также очевидны и недостатки. Модератор — живой человек, и может не уследить за отдельными комментариями с нарушениями. А это может быть чревато серьёзными последствиями. Ближайший пример — стриминговая платформа Twitch, которая ужесточила правила настолько, что за комментарий совершенно неизвестного анонима у себя на канале стример может получить пожизненный бан.

Некоторым компромиссным вариантом может послужить автоматическая модерация.

Автоматическая модерация

Этот способ использую часто в качестве вспомогательного. Специальный программный модуль автоматически отфильтровывает явно нарушающие правила сообщества публикации. Для этого используются простые и сложные средства. Например, простые стоп-листы, где прямо перечислены запрещённые слова и их словоформы. Или более сложные алгоритмы, которые анализируют текст и по семантической модели определяют не просто наличие явно запретных слов, но и тон месседжа на предмет того же хейт-спича.

Автоматические средства позволяют проверять не только текст, но и графику. Например, на рекламных площадках алгоритмы автоматически проверяют качество загружаемых банеров.

«Общественная» модерация

Наконец, некоторую часть функции модерирования могут взять на себя и сами пользователи. Через систему оценок. Так, например, делает Хабр. Каждый комментарий может плюсоваться или минусоваться простыми пользователи. Заминусованный комментарий отображается всё более бледным шрифтом, пока и вовсе не сольётся с фоном.

Заминусованный комментарий на Хабре “бледнеет”.

Модерация конфликтов

Помимо мониторинга контента, модератору приходится работать и с прямыми обращениями пользователей. Например, один пользователь посчитал комментарий оскорбительным и нажал «Пожаловаться». Модератор получает сообщение, и ему нужно вынести решение для улаживания конфликта.

Интерактивные и информационные сайты

Интерактивные и информационные сайты

Интерактивный сайт – это динамический, постоянно изменяющийся по своему  содержанию ресурс. Причем изменения эти производят непосредственно посетителями сайта. Создание интерактивных сайтов предполагает разработку интерактивных элементов, при помощи которых происходит взаимодействие с посетителями (форумы, гостевые страницы и т.д.).  Такие сайты не только информируют пользователей об услугах компании, но и предоставляют им полную возможность принимать активное участие в функционировании web-ресурса. Пользователи интерактивных сайтов могут добавлять свой контент, аудиоматериалы, фото, видеоролики и многое другое. Тематика данных ресурсов необязательно должна быть развлекательной. Распространенной практикой сегодня является

создание интерактивных сайтов коммерческих компаний для организации обратной связи с потенциальными клиентами путем привлечения их интересными конкурсами, а также с помощью сбора необходимой информаций через анкетирование. Такие инструменты позволяют решать целый комплекс задач, повышать эффективность деятельности компании и уровень продаж. Безусловно, для обеспечения нормального функционирования крупного  интерактивного сайта необходимо его профессиональное техническое обслуживание. Создание сайтов порталов высокого уровня сложности  требует не менее качественной последующей техподдержки. Без квалифицированного модерирования интерактивный сайт может быстро потерять репутацию и постоянных пользователей. Каждое сообщение и  каждый размещенный на страницах материал необходимо проверять на соответствие тематике сайта, отсутствие рекламы и ненормативной лексики.

Одним из современных вариантов интерактивных сайтов сегодня являются интерактивные  флеш-сайты, при помощи которых у пользователей есть возможность принимать участие в процессе формирования товара или услуги, которой они пользуются. При помощи программистов и web-дизайнеров организуется «рабочая активность» графических объектов и рисунков на сайте для их взаимодействия с пользователями, что и составляет свойство  интерактивности – реагировать и отвечать на все действия для обмена данными. Интерактивность сайта – это важный и очень действенный маркетинговый инструмент, обеспечивающий  вовлеченность пользователя и его желание непременно «добраться до победного конца», а также сопровождение клиентов от момента первого посещения сайта  до заключения сделки.

Создание сайта организации часто обусловлено необходимостью регулярного донесения большого объема информации до определенной аудитории. Информационные сайты создаются для интенсивного обмена актуальной информацией.

Создание информационного сайта требует специальных программных решений и самых современных инструментов для реализации удобного функционала. Такие сайты использует множество  государственных служб для размещения информации для граждан о тарифах и услугах, а также риэлтерские компании для демонстрации объектов продажи потенциальным покупателям. Информационные сайты могут быть, также,  представлены в виде сборников статей и каталогов ссылок на другие ресурсы, что чаще всего имеет прямое отношение к Интернет-бизнесу. Как правило, создание информационного сайта основано на современных системах управления контентом, которые значительно расширяют функционал, позволяют легко управлять каталогом, обновлять тексты и доски объявлений. Мы создаем информационные сайты на основе самых современных программ, что позволяет владельцам ресурсов самостоятельно добавлять и обновлять контент без задержек и особых сложностей – с помощью широкого набора инструментов возможно их оперативное управление и модерирование.


Правила общения — ФК Челси | Русскоязычный сайт

В связи с участившимися конфликтными случаями между пользователями, мы решили ввести некоторые правила общения на нашем сайте. Просим отнестись к этому с пониманием.

Администрация оставляет за собой право определять неприемлемое поведение и любой контент исходя из своих взглядов. В случае нарушения может быть вынесено предупреждение или дан бан.

Запрещается:
  1.  Оскорбительные высказывания в адрес других людей, травля людей.
  2.  Подстрекательство и провокация ссор, свар, ругани, наездов и т.п.
  3.  Беспредметный флуд. Новости в чате 
  4.  Публикация в чате, новостях и форуме изображений и текстов: с порно, сценами насилия, и картинок, вызывающих сильные отрицательные эмоции.
  5.  Пропаганда насилия, фашизма, разжигание межнациональной и межрелигиозной, розни (30 дней.)
  6.  Создание ников, дублирующих уже существующих пользователей (То есть когда пользователь создает аккаунт с ником, похожим на аккаунт другого пользователя).
  7.  Любая реклама сторонних материалов и ресурсов, не относящаяся к тематике сайта.
  8.  Безосновательное оскорбление игроков/тренеров команды (Как нельзя: Игрок N — дебил кривоногий), (Как можно: Игрок N отвратительно сыграл эпизод, потерял позицию, не подстраховал и т.д.)
  9.  Если вы хотите оспорить решение Администратора/Модератора по вопросам, связанным с модерированием комментариев сайта, то напишите ему личное сообщение. Запрещается публично спорить с Администратором/Модератором или выражать свое отношение к вопросам, связанных с модерированием сайта. Помните — Модератор всегда прав, за исключением того случая, когда он пошел против главного админа. Также запрещено самовольное модерирование — не указывайте администрации что и как ей следует делать.
  10. Если в тексте не указан источник — это не означает, что его нет — это может быть обычная забывчивость. Это может быть новость из твиттера какого-либо журналиста. В конце концов, иногда в ленте новостей появляются материалы (статьи) аналитического характера, где мы не можем указать источник. ВНИМАНИЕ: ЛЮБЫЕ замечания по этому поводу в комментариях, будут караться БАНОМ на 20 дней!

По поводу нецензурной лексики: мат разрешен только при выражении эмоций и чувств, которые не направлены на кого-то конкретного, например, во время совместного просмотра матчей. Любое нецензурное выражение в адрес другого пользователя будет строго караться.

Сроки банов за нарушение правил чата:

— 1 нарушение — бан сутки

— 2 нарушение — бан 3 суток

— 3 нарушение — бан 7 суток

— 4 нарушение — бан 30 суток

— 5 нарушение — перманентный бан

Поправки. 25/02/2020

Секретные правила интернета

Мрачная история модерации и то, как она формирует будущее свободы слова


Кэтрин Буни и Сорайя Чемали | Иллюстрации Эрика Петерсена

Джули Мора-Бланко вспоминает тот день летом 2006 года, когда до нее дошла реальность ее новой работы. большую часть своего свободного времени она занимается созданием скульптур из найденных предметов и выдувного стекла.Изо всех сил пытаясь заработать на аренде и работая пост-продакшн на Current TV, она ухватилась за шанс работать в интернет-стартапе под названием YouTube. Может быть, подумала она, она сможет заработать достаточно денег, чтобы осуществить свою мечту всей жизни: стать парикмахером.

Эта статья была опубликована в партнерстве с The Investigation Fund в The Nation Institute

Было теплое солнечное утро, и она сидела за своим столом в офисе компании, расположенном над пиццерией в Сан-Матео, идиллическом и богатом пригороде Сан-Франциско.Мора-Бланко был одним из 60 с лишним двадцатилетних, которые пришли работать на все еще убыточный веб-сайт.

Команда Mora-Blanco — всего 10 человек — получила название SQUAD (Отдел безопасности, качества и защиты интересов пользователей). Они работали в командах по четыре-шесть человек, кто-то работал днем, а кто-то ночью, просматривая видео круглосуточно. Их работа? Чтобы защитить молодой бренд YouTube, очистив сайт от оскорбительного или вредоносного контента, отмеченного пользователями, или, как выразился Мора-Бланко, «не дать нам стать шокирующим сайтом.Основатели хотели, чтобы YouTube был чем-то новым, чем-то лучшим — «местом для всех», — а не очередным миром eBaum, который уже стал хранилищем откровенной порнографии и беспричинного насилия.

Мора-Бланко сидела рядом с Мисти Юинг-Дэвис, которая, проработав несколько месяцев, считалась старожилом. На столе перед ними лежал лист бумаги, сложенный пополам, чтобы показать маркированный список инструкций: удалить видео с жестоким обращением с животными. Удалите видео с кровью.Убрать видимую наготу. Уберите порнографию. Мора-Бланко вспоминает, что ее товарищи по команде представляли собой «мешанину» из мужчин и женщин; гей и натурал; слегка склоняется в сторону белых, но также и индийцев, афроамериканцев и филиппинцев. Большинство из них были друзьями, друзьями друзей или членами семьи. Они разговаривали и шутили, пытаясь понять правила. «Нужно найти юмор, — вспоминает она. «Иначе будет просто больно».

Видео появились на их экранах в бесконечной очереди. Посмотрев по паре секунд каждый, члены SQUAD нажали одну из четырех кнопок, появившихся в правом верхнем углу их экранов: «Одобрить» — оставить видео в силе; «Коварный» — пометить видео как 18+; «Отклонить» — удалить видео без штрафа; «Страйк» — удалить видео со штрафом на аккаунт.Щелкни, щелкни, щелкни. Но в тот день Мора-Бланко наткнулась на то, что остановило ее.

«О, Боже», сказала она.

В тот день Мора-Бланко наткнулась на что-то, что остановило ее.

Мора-Бланко не будет описывать то, что она увидела тем утром. Ради всех, говорит она, она не будет вызывать в воображении ошеломляюще жестокие образы, которые, как она вспоминает, были связаны с малышом и тускло освещенным гостиничным номером.

Юинг-Дэвис спокойно провела Мора-Бланко через ее следующие шаги: нажмите «Забастовка», заблокируйте пользователя и перешлите данные учетной записи человека и видео руководителю группы SQUAD.Оттуда информация попадала в CyberTipline, систему отчетности, запущенную Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC) в 1998 году. Единственным черно-белым участком работы были кадры эксплуатации детей с изложенными протоколами. и прямо соблюдается законом с конца 1990-х годов.

Видео пропало с экрана Мора-Бланко. Появился следующий.

Юинг-Дэвис сказал: «Пойдем прогуляемся».

Хорошо. Вот что вы делаете , вспоминает Мора-Бланко, думая, пока они ходили взад и вперед по улице. Вы увидите плохие вещи .

Спустя почти десятилетие видео и ребенок в нем все еще не дают ей покоя. «На затылке из всех образов я до сих пор вижу этот», — сказала она во время нашего недавнего разговора. «У меня действительно не было описания работы, чтобы просмотреть или полного понимания того, что я буду делать. Я был молодым 25-летним и просто рад, что мне платят больше денег. Я должен был принести домой компьютер. !» Голос Мора-Бланко сорвался, когда она остановилась, чтобы собраться.— Я давно об этом не говорил.

Мора-Бланко — один из более чем дюжины нынешних и бывших сотрудников и подрядчиков крупных интернет-платформ, от YouTube до Facebook, которые откровенно рассказали нам о заре модерации контента. Многие из этих людей впервые рассказывают о своем опыте. Их истории показывают, как были установлены границы свободы слова в период бурного роста общественного достояния с высокими ставками, которого не существовало на протяжении большей части истории человечества.Как много лет назад профессор права Джеффри Розен впервые сказал о Facebook, эти платформы обладают «большей властью в определении того, кто может говорить и кого можно услышать по всему миру, чем любой судья Верховного суда, любой король или любой президент».



Запущенный в 2005 году YouTube был детищем Чеда Херли, Стива Чена и Джаведа Карима — троих мужчин в возрасте 20 лет, которые были разочарованы тем, что технически у них не было простого способа поделиться двумя особенно интересными видео: клипами 2004 года. цунами, опустошившего юго-восточную Азию, и «неисправность гардероба» Джанет Джексон в Суперкубке.В апреле 2005 года они протестировали свою первую загрузку. К октябрю они опубликовали свой первый хит с миллионным просмотром: бразильский футбольный феномен Роналдиньо примеряет пару золотых бутс. Год спустя Google заплатил беспрецедентную сумму в 1,65 миллиарда долларов за покупку Мора-Бланко получила звание стратега по политике в отношении контента, или, по ее словам, «посредника». К середине 2006 года зрители YouTube просматривали более 100 миллионов видеороликов в день.

На заре своего существования YouTube привлекал небольшую группу людей, которые в основном делились видео с семьей и друзьями. Но по мере роста объема сайта рос и ассортимент контента: загружались клипы из коммерческих фильмов и музыкальных клипов, а также огромные объемы любительской и профессиональной порнографии. (Даже сегодня последний затмевает любую другую категорию контента, нарушающего правила.) Затем последовали видео жестокого обращения с детьми, избиений и жестокого обращения с животными. К концу 2007 года YouTube закрепила свою приверженность соблюдению закона об авторском праве, создав Программу проверки контента.Но проверка вредоносного контента оказалась бы гораздо более сложной и потребовала бы интенсивного человеческого труда.

Они последовали наводящему вопросу: «Могу ли я поделиться этим видео со своей семьей?»

Иногда измученные, иногда ликующие и всегда находящиеся под сильным давлением SQUAD просматривали весь помеченный контент YouTube, разрабатывая стандарты по ходу дела. Они последовали путеводному вопросу: «Могу ли я поделиться этим видео со своей семьей?» По большей части они работали независимо друг от друга, споря и споря между собой; по особо спорным вопросам такие стратеги, как Мора-Бланко, советовались с основателями YouTube.В процессе они составили некоторые из первых набросков того, что быстро становилось новой областью работы, отраслью, которая никогда прежде не систематизировалась и не масштабировалась: профессиональной модерацией.

К осени 2006 года, работая с данными и видеоиллюстрациями SQUAD, юрист YouTube, глава отдела политики и руководитель службы поддержки создали первый буклет правил компании для команды, который, как вспоминает Мора-Бланко, состоял всего из шести страниц. . Как и предыдущий одностраничный буклет, копии буклета лежали на столе и постоянно исправлялись, а затем обновлялись новыми пунктами каждые несколько недель или около того.Никакой буклет не может быть полным, никакая политика не может быть окончательной. Эта небольшая группа импровизаторов еще не осознала, что они помогают разработать новые глобальные стандарты свободы слова.

В 2007 году команда SQUAD помогла создать на YouTube первые четко сформулированные правила для пользователей. Они запретили изображения порнографии, преступных действий, неоправданного насилия, угроз, спама и разжигания ненависти. Но в правилах остались значительные пробелы — пробелы, которые вызовут затруднения как у пользователей, так и у модераторов. Пресс-служба Google, которая сейчас занимается общением с YouTube, не согласилась на интервью после многочисленных запросов.

По мере того, как YouTube рос, росло и количество загружаемых на него видео: платформа становилась все более важным местом размещения достойных освещения в печати видео. Для членов SQUAD, ни у кого из которых не было значительного журналистского опыта, это вызвало ряд новых решений.

Летом 2009 года иранские протестующие вышли на улицы, оспаривая победу Махмуда Ахмадинежада на президентских выборах. Названное Зеленым движением, оно стало одним из самых значительных политических событий в постреволюционной истории страны.Мора-Бланко, которая вскоре станет старшим специалистом по контенту, и ее команда — теперь получившая название «Политика» и насчитывающая более двух десятков человек — отслеживали множество клипов протеста, загружаемых на YouTube.

20 июня команда обнаружила видеозапись смерти молодой женщины по имени Неда Ага-Солтан. 26-летняя девушка была ранена единственной пулей в грудь во время демонстраций против проправительственных сил, и дрожащее видео с мобильного телефона запечатлело ее ужасные последние минуты: на нем кровь льется из ее глаз, лужи под ней.

Через несколько часов после загрузки видео оно стало центром внимания Мора-Бланко и ее команды. Как она вспоминает, в разработанных ими руководящих принципах не было четких указаний относительно того, что представляет собой информационная ценность или что, по сути, представляет собой этическая журналистика, включающая графический контент и изображение смерти. Но она знала, что видео имеет политическое значение, и понимала, что их решение будет способствовать его значимости.

Мора-Бланко и ее коллеги в конце концов согласились сохранить видео.Он подпитывал важные разговоры о свободе слова и правах человека в глобальном масштабе и быстро превращался в вирусный символ движения. Оно обладало огромной политической силой. Они обладали огромной политической властью. Клип уже был доступен в других местах, что привело к огромному трафику на конкурирующие платформы.

Группа политики быстро сотрудничала с юридическим отделом, чтобы смягчить его политику неоправданного насилия, на лету создав исключение для освещения в печати. Инженер быстро разработал кнопку, предупреждающую о том, что контент содержит сцены насилия — нарушение контента при нормальных обстоятельствах, — и ее команда сделала видео доступным за ней, где оно находится и по сей день.Сотни тысяч людей в Иране и во всем мире могут стать свидетелями жестокой смерти демократического протестующего от рук правительства. Маневры, которые позволили содержимому стоять, заняли меньше суток.



Сегодня более миллиарда пользователей YouTube загружают 400 часов видео каждую минуту. Каждый час пользователи Instagram генерируют 146 миллионов «лайков», а пользователи Twitter отправляют 21 миллион твитов. В августе прошлого года Марк Цукерберг написал в Facebook, что сайт преодолел «важную веху: впервые в истории Facebook за один день воспользовался миллиард человек.»

Модераторы этих платформ, с трудом взгромоздившиеся на стыке корпоративной прибыли, социальной ответственности и прав человека, оказывают сильное влияние на свободу слова, инакомыслие правительства, формирование социальных норм, безопасность пользователей и значение конфиденциальности. Какой помеченный контент следует удалить? Кто решает, что остается и почему? Что представляет собой новостная ценность? Угроза? Вред? Когда должны привлекаться правоохранительные органы?

В то время как общественные дебаты о государственной цензуре и свободе слова в кампусах колледжей бушуют, управление пользовательским контентом представляет собой тихую транснациональную передачу решений о свободе слова в частные, управляемые корпорациями уголки Интернета, где люди взвешивают конкурирующие ценности скрытым и проприетарным образом.Модерация, как объясняет исследователь Microsoft Кейт Кроуфорд, представляет собой «глубоко человеческий процесс принятия решений о том, что представляет собой уместное публичное высказывание».

Модерация — это «глубоко человеческий процесс принятия решений».

Во время панели в этом году на South by Southwest Моника Бикерт, глава отдела глобальной политики Facebook, поделилась, что пользователи Facebook ежедневно отмечают более миллиона элементов контента для просмотра. Ставки модерации могут быть огромными.По состоянию на лето прошлого года на платформы социальных сетей — преимущественно Facebook — приходилось 43 процента всего трафика на основные новостные сайты. Почти две трети пользователей Facebook и Twitter получают доступ к своим новостям через свои каналы. Неконтролируемые социальные сети обычно замешаны в межконфессиональной жестокости, насилии со стороны интимного партнера, вербовке воинствующих экстремистов и эпизодах массовых издевательств, связанных с самоубийствами.

Контент, помеченный как насильственный (избиение или обезглавливание), может быть достойным освещения в печати. Контент, помеченный как «порнографический», может носить политический характер или быть столь же невинным, как кормление грудью или принятие солнечных ванн.Контент, размещенный как комедия, может быть помечен как откровенный расизм, антисемитизм, женоненавистничество, гомофобия или трансфобия. В то же время контент, который может явно не нарушать правила, иногда публикуется пользователями для совершения оскорблений или вендетты, запугивания политических оппонентов или секс-работников или трансгендеров. Тролли и преступники используют анонимность, чтобы доксировать, шлепать, вымогать, использовать изнасилования и, в некоторых случаях, транслировать убийства. Жестокие мужчины угрожают супругам. Родители шантажируют детей. В Пакистане группа Bytes for All — организация, которая ранее подала в суд на правительство Пакистана за цензуру видео на YouTube — опубликовала три тематических исследования, показывающих, что социальные сети и мобильные технологии наносят реальный вред женщинам в стране, позволяя насильникам шантажировать жертв (которые могут грозит тюремное заключение после изнасилования) и разжигают межконфессиональное насилие.

Преобладающее повествование, как выразился один рассказ в The Atlantic , состоит в том, что текущая система модерации контента «сломана». Для пользователей, которые пострадали от онлайн-контента, трудно утверждать, что слово «сломанный» не совсем подходящее. Но что-то должно быть целым, прежде чем оно может развалиться. Интервью с десятками отраслевых экспертов и инсайдеров в течение 18 месяцев показали, что методы модерации с глобальными разветвлениями были маргинализированы в крупных компаниях, недостаточно капитализированы или даже игнорировались.Вызывает тревогу тот факт, что прежний подход к политике модерации, основанный на сидении штанов, сохраняется и сегодня, будучи скрытым индустрией, которая в значительной степени отказывается участвовать в предметных публичных дискуссиях или подробно отвечать на запросы СМИ.

В статье Wired , опубликованной в октябре 2014 года, Адриан Чен задокументировал работу ведущих модераторов, работающих в современных потогонных мастерских. В Маниле Чен стал свидетелем тайной «армии рабочих, нанятых для того, чтобы впитывать худшее из человечества, чтобы защитить остальных из нас.Освещение в СМИ и исследователи сравнивают их работу со сбором мусора, но работа, которую они выполняют, имеет решающее значение для сохранения любого чувства приличия и безопасности в Интернете и буквально спасает жизни — часто жизни детей. Для ведущих модераторов эта работа может быть Бет Медина, которая руководит программой под названием SHIFT (Поддержка героев в фундаментальном обучении психического здоровья), которая с 2009 года проводит тренинги устойчивости для групп интернет-преступлений против детей, подробно описывает серьезные издержки для здоровья, связанные с постоянным воздействием токсичных изображений: изоляция, отношения трудности, выгорание, депрессия, злоупотребление психоактивными веществами и тревога.«Выполнение такой работы сопряжено с неотъемлемыми трудностями, — сказал Чен, — потому что материал очень травматичен».

Даже основные факты об индустрии модерации контента остаются загадкой

Но какой бы скрытой ни была эта армия, распоряжения, которым она следует, часто еще более непрозрачны — создаются смесью венчурных капиталистов, генеральных директоров, политики, сообщества, конфиденциальности и доверия и менеджеры по безопасности, юристы и инженеры, работающие за тысячи миль. Сара Т. Робертс — доцент кафедры информационных и медиа-исследований в Западном университете и автор предстоящей книги «За экраном: цифровая работа в теневом мире социальных сетей ».Она говорит, что «модерация коммерческого контента» — термин, который она придумала для обозначения профессиональной, организованной модерации, описанной в этой статье, — это не сплоченная система, а дикий набор эволюционирующих практик, раскручиваемых по мере необходимости, подчиняющихся разным законам в разных странах. страны, и часто совершенно неадекватные для стоящей перед нами задачи. Эти практики обычно терпят крах под тяжестью и сложностью новых вызовов, поскольку решения, которые принимают модераторы, касаются все более глубоких юридических вопросов и прав человека, результаты которых затрагивают пользователей, работников и наше цифровое общественное достояние.Как видно из Black Lives Matter или «арабской весны», независимо от того, остается онлайн-контент или уходит, он может формировать движения и революции, а также радикальные политические реформы и культурные сдвиги, которые они порождают.

Тем не менее, даже основные факты об отрасли остаются загадкой. В прошлом месяце в статье под названием «Модерирование Facebook: темная сторона социальных сетей» кто это размещает? предположил, что одна треть «всей рабочей силы Facebook» состоит из модераторов, число, которое Facebook опровергает как завышенное.Модерация контента разделена на внутренние отделы, фирменные магазины, колл-центры и микрорабочие сайты, и все они дополняются неисчислимым количеством алгоритмических и автоматизированных продуктов. Хеманшу Нигам, основатель SSP Blue, которая консультирует компании по вопросам онлайн-безопасности, защиты и конфиденциальности, оценивает количество людей, работающих в модерации, «значительно более 100 000». Другие предполагают, что это число во много раз больше.


В таких лидерах отрасли, как Facebook, Pinterest и YouTube, процесс модерации значительно улучшается; на других платформах это может быть и 2006 год.Там системы привязаны к подходу невмешательства более ранней эпохи и продолжают отражать различные чувства пользователей и основателей. Например, на 4chan пользователи получают инструкции не нарушать законы США, но также могут свободно публиковать практически любой тип контента, если они делают это на четко определенных досках. По словам владельца сайта Хироюки Нисимуры, 4chan по-прежнему в значительной степени полагается на добровольную систему «уборщиков», назначаемых пользователями. Эти уборщики, как сказал Нисимура в недавней переписке по электронной почте, играют решающую роль, «отвечая за то, чтобы на имиджбордах не было контента, нарушающего правила.Как указано на странице заявки уборщика на веб-сайте, «уборщики могут просматривать очередь отчетов, удалять сообщения и отправлять запросы на бан и предупреждения» для назначенной им доски. Уборщики 4chan, по словам Нисимуры, используют «каналы чата», чтобы обсуждайте вопросы контента с курирующими модераторами, некоторые платные, некоторые бесплатные. «Если они не могут решить, — написал он, — они спрашивают меня, чтобы я был последним на 4chan. И, если я не могу судить. Я спрашивал у юристов.» Даже спустя более десяти лет 4chan остается сайтом, который часто подвергается преследованиям и угрозам.Контент включал в себя все, от широкого распространения порнографии без согласия до мемов «Niggerwalk» до расистских толп, напоминающих Гитлера и угрожающих отдельным пользователям. «Люди, которые пытаются делать плохие вещи, также используют YouTube, Facebook, Twitter и 4chan», — сказал нам Нисимура. «Пока такие люди живут на свете, такое случается. Прямо сейчас я не знаю, как их остановить, и очень хочу знать. Если есть способ это остановить, мы обязательно пойдем по этому пути».

Детали методов модерации обычно рассматриваются как коммерческая тайна

Детали методов модерации обычно скрываются от посторонних глаз, группируются внутри компаний и рассматриваются как коммерческая тайна, когда речь идет о пользователях и общественности.Несмотря на настойчивые призывы сторонников гражданского общества к прозрачности, социальные сети не публикуют подробностей своих внутренних правил модерации контента; ни одна крупная платформа не обнародовала такие рекомендации. Очень мало известно о том, как платформы определяют свою политику — нынешние и бывшие сотрудники, такие как Мора-Бланко и другие, с которыми мы говорили, ограничены соглашениями о неразглашении. Официальные лица Facebook Моника Бикерт и Эллен Сильвер, глава группы поддержки сообщества Facebook, ответили на вопросы, касающиеся их текущих методов модерации, а Pinterest предоставила для интервью менеджера по безопасности Шарлотту Вилнер.Однако Facebook и Pinterest, а также Twitter, Reddit и Google отказались предоставить копии своих прошлых или текущих правил внутренней политики модерации. Twitter, Reddit и Google также отклонили несколько запросов на интервью до истечения крайнего срока. Например, когда его попросили обсудить работу групп доверия и безопасности Twitter, представитель написал только:

.

«Наши правила разработаны, чтобы позволить нашим пользователям создавать и обмениваться разнообразным контентом в среде, которая является безопасной и надежной для наших пользователей.Когда нам сообщают о контенте, который нарушает наши правила, в том числе запрет на насильственные угрозы и целенаправленное оскорбление, мы приостанавливаем действие этих учетных записей. Мы оцениваем и уточняем наши политики на основе отзывов пользователей, а также работаем с внешними организациями по безопасности, чтобы убедиться, что у нас есть лучшие отраслевые практики».

Согласно Кроуфорду, Уилнеру и другим, секретность движет несколькими мотивами. С одной стороны, руководители хотят защитить проприетарную технологическую собственность и получить защиту от ответственности.С другой стороны, им нужна гибкость, чтобы реагировать на нюансы, быстро меняющиеся ситуации, и они хотят как защитить сотрудников, которые чувствуют себя уязвимыми для общественного контроля, так и защитить платформу от пользователей, стремящихся обмануть обнародованную политику. Очевидные издержки, связанные с сохранением в тайне такой важной квазигосударственной функции, редко вызывают обеспокоенность корпораций. «Каким образом, — спрашивает Робертс, исследователь модерации контента, — вы или я изменяем методы модерации, если они рассматриваются как промышленные секреты?»

Дэйв Уилнер работал в Facebook с 2008 по 2013 год, большую часть времени руководил политикой в ​​отношении контента, а сейчас отвечает за политику сообщества в Airbnb.Весной прошлого года мы встречались с ним в Сан-Франциско. Он был одет в помятую красную футболку и джинсы, говорил и шел быстро, пока мы шли через Миссию.

Представители общественности, «насколько существует «общественность», — сказал он, придерживаются одного из трех предположений о модерации: модерация полностью осуществляется роботами; модерация в основном находится в руках правоохранительных органов; или, для тех, кто действительно знаком с контент-менеджерами, они воображают, что контент оценивается в обстановке, похожей на классную комнату, заинтересованными профессионалами, вдумчиво обсуждающими каждую публикацию.Все три предположения, по его словам, были неверны. И они ошибаются по большей части потому, что все они упускают из виду жизненно важную роль, которую сами пользователи играют в этих системах.

У общественности есть одно из трех предположений о модерации. Все три предположения неверны

В целом пользователи считают себя клиентами или потребителями. Но платформы полагаются на пользователей тремя глубокими способами, которые изменяют эту линейную зависимость: во-первых, пользователи производят контент — наши истории, фотографии, видео, комментарии и взаимодействия являются основными активами для платформ, которые мы используем; во-вторых, поведение пользователей — собранное, проанализированное, упакованное и переупакованное — является источником дохода от рекламы; и в-третьих, пользователи играют решающую роль в модерации, поскольку почти каждая система модерации контента зависит от пользователей, помечающих контент и подающих жалобы, формируя нормы, поддерживающие бренд платформы.Другими словами, пользователи являются не столько клиентами, сколько бесплатными цифровыми работниками, которые выполняют динамичные и незаменимые функции (несмотря на то, что они в значительной степени не информированы о том, как их труд используется и капитализируется).

Энн Коллиер, основатель iCanHelpline, социальной сети для школ, предполагает, что пользователи еще не осознали свою коллективную способность устранять вред, который пользователи сами создали в социальных сетях. «Их не просто так называют пользователями, — сказала она, — и все вместе они по-прежнему думают и ведут себя как пассивные потребители.«Замалчивая их роль, — утверждает она, — индустрия задерживает признание пользователями их деятельности и власти».

Некоторые крупные компании, в частности Facebook и Google, взаимодействуют с гражданским обществом посредством создания экспертных целевых групп и целевых тематических рабочих сессий, посвященных проблеме домогательств и преступности в Интернете. Такие организации, как Глобальная сетевая инициатива, Рабочая группа по борьбе с киберненавистью, Консультативный совет по безопасности Facebook и новый Совет по доверию и безопасности Twitter — все это примеры таких междисциплинарных встреч, которые объединяют экспертов в данной области.Однако эти дебаты (в отличие, скажем, от слушаний в Конгрессе) скрыты от общественности, поскольку представители корпораций и гражданского общества почти ничего не говорят о дискуссиях. Без большей прозрачности пользователи, потребители — общественность в целом — плохо подготовлены, чтобы понять, как именно работают платформы и как регулируется их собственная речь и почему. Это означает, что самых элементарных инструментов подотчетности и управления — общественного и правового давления — просто не существует.



В первые дни Интернета, когда «информация хочет быть бесплатной», цели были высоки.Предполагалось, что онлайн-доступ высвободит положительный и творческий человеческий потенциал, а не предоставит место для садистов, растлителей малолетних, насильников или сторонников расового превосходства. Тем не менее, этот радикально свободный интернет быстро стал ужасающим домом для отвратительного контента и пользователей, которые его публиковали и потребляли.

Эта ранняя фаза, с самого начала в 1960-х годах до 2000 года, является тем, что J.G. Палфри, бывший исполнительный директор Беркмановского центра Интернета и общества Гарвардского университета, называет Открытый Интернет.В значительной степени это было результатом раздела 230 (c) Закона о приличии в коммуникациях 1996 года, известного как Закон о добром самаритянине, который освобождал компании от ответственности за контент, распространяемый в их сервисах.

Раздел 230 широко известен как «самый важный закон в Интернете», который, по словам Дэвида Поста, юриста и научного сотрудника Центра демократии и технологий, сделал возможным «примерно триллион долларов». Он называет Раздел 230 «довольно замечательным положением.Он гласит: «Ни один поставщик или пользователь интерактивных компьютерных услуг не должен рассматриваться как издатель или распространитель любой информации, предоставленной другим поставщиком информационного контента». Эти 26 слов передают решения о свободе слова в частные руки, эффективно освобождая платформы от юридической ответственности. для всего контента, не нарушающего федеральный закон, такого как детская порнография.Все системы сдержек и противовесов, которые регулируют традиционные СМИ, не будут применяться; при отсутствии риска клеветы, по сути, не существует правил.

В Интернете система сдержек и противовесов, которая регулирует традиционные СМИ, не будет применяться.

Первоначально бессистемная культура невмешательства модерации берет свое начало здесь. Прежде чем компании поняли, как отсутствие модерации может помешать росту и ухудшить качество брендов и сообщества, модераторы были добровольцами; бесплатно и практически незаметно. В AOL модерирование осуществлялось программой лидеров сообщества, состоящей из пользователей, которые ранее модерировали чаты и сообщали об «оскорбительном» контенте.Им было поручено создать «сообщества» в обмен на отказ от абонентской платы.

К 2000 году компании стали применять более активный подход. CompuServe, например, разработала одну из первых политик «допустимого использования», запрещающую расистские высказывания, после того, как пользователь с ревизионистской позицией Холокоста начал заполнять популярный форум антисемитскими комментариями. В 2001 году eBay запретил памятные вещи нацистов и Ку-клукс-клана, а также другие символы расовой, религиозной и этнической ненависти.Демократические страны объединили усилия для борьбы с детской порнографией. Палфри называет этот этап «Доступ запрещен» и характеризуется согласованными усилиями всей отрасли и правительства по запрету неаппетитного контента.

В течение следующего десятилетия компании и правительства оттачивали эти инструменты модерации первого поколения, совершенствуя политики и разрушая миф о том, что киберпространство существует в отдельном от реальной жизни плане, свободном от реалий регулирования, закона и политики.

Это была эпоха, когда Мора-Бланко начала свою карьеру на YouTube.Попытка навести порядок в цифровом Диком Западе по одному видео за раз была изнурительной. Чтобы другие сотрудники не увидели тревожные изображения в сообщенном контенте, который им было поручено просмотреть, ее команда была изолирована в угловых офисах; в их комнатах не было света, а их компьютеры были оснащены самыми большими защитными экранами на рынке.

У членов команды быстро появились признаки стресса — тревога, пьянство, проблемы со сном — и в конце концов менеджеры вызвали терапевта.Пока модераторы описывали изображения, которые они видели каждый день, терапевт замолчал. Терапевт, по словам Мора-Бланко, был «в буквальном смысле напуган».

Примерно в 2008 году, вспоминает она, YouTube распространил модерацию на офисы в Дублине, Ирландия, и Хайдарабаде, Индия. Самоубийства и жестокое обращение с детьми происходят не по расписанию, а работа модераторов в разных часовых поясах позволила компании обеспечить круглосуточную поддержку. Но это также выявило фундаментальную проблему модерации контента в разных культурах.

Он потихоньку начал удалять блэкфейсы. В то время YouTube считал блэкфейс невредоносным.

Вскоре после расширения Мора-Бланко обнаружила, что обсуждает помеченное видео, в котором группа студентов стоит в кругу, а в центре дерутся два мальчика. Правила модерации запрещают контент, показывающий несовершеннолетних, участвующих в борьбе за развлечения, и написаны так, чтобы быть максимально применимыми во всем мире и переводимыми, насколько это возможно. Но интерпретация этих указаний, как она обнаружила, может быть на удивление подвижной.Модераторы в Индии позволили отмеченному видео остаться в эфире, потому что для них люди в видео были не детьми, а взрослыми. Когда видео было снова помечено, оно было передано команде Силиконовой долины, как, как сообщается, и по сей день. По мнению Мора-Бланко, видео явно нарушало политику YouTube. «Я не знала, как проще описать то, что я видела», — сказала она. Видео слетело.

Культурная перспектива является постоянной и всепроникающей проблемой, несмотря на попытки установить «объективные» правила.Один из бывших проверяющих с крупной платформы для обмена видео, участвовавший в исследовании Робертса и разговаривавший с нами на условиях анонимности, рассказал о просмотре видео того, что он охарактеризовал как крайнее насилие — убийства и избиения — из Мексики.

Специалисту по досмотру было приказано удалить видеоролики, изображающие насилие, связанное с наркотиками, в Мексике, в то время как видео о политическом насилии в Сирии и России должны были оставаться в эфире. Это различие возмутило его. Независимо от страны, людей убивали во время, по сути, всех гражданских войн.«На самом деле, — сказал он, — наша политика предназначена для защиты определенных групп». Перед тем, как уйти, он тихо начал удалять видео с черным лицом, с которыми столкнулся. В то время YouTube считал блэкфейс невредоносным.

Когда Дэйв Уилнер пришел в Facebook в 2008 году, его команда работала над собственной «одностраничной» схемой с краткими инструкциями. «Жестокое обращение с детьми, жестокое обращение с животными, Гитлер», — вспоминает Вилнер. «Нам сказали убрать все, что заставляет вас чувствовать себя плохо, что заставляет вас чувствовать себя плохо в животе.«Уиллнер только что переехал в Силиконовую долину, чтобы присоединиться к своей девушке, тогда Шарлотте Карневале, а теперь Шарлотте Уилнер, которая стала главой международной группы поддержки Facebook. За следующие шесть лет, когда Facebook вырос с менее чем 100 миллионов пользователей до более миллиардов, они работали бок о бок, разрабатывая и внедряя первые формальные правила модерации компании. «Если Facebook создан для того, чтобы сделать мир более открытым, зачем вам что-то удалять?»

«Нас звали Ниндзя, — сказал он, — наносим на карту кроличью нору.Как и Мора-Бланко, Вилнер описывал, как он, Шарлотта и их коллеги иногда смеялись над своей работой, чтобы не плакать. «Для посторонних это звучит безумно», — сказал он.

Так же, как и на YouTube, субъективность политики модерации Facebook бросалась в глаза. «Да, удаление Гитлера — это круто», — вспоминает Вилнер. «Но, , почему мы удаляем Гитлера? Если Facebook существует для того, чтобы сделать мир более открытым, — спрашивал он себя, — зачем вам что-то удалять?» Работа, по его словам, заключалась в том, чтобы «выяснить центральный Facebook, почему

Для таких людей, как Дэйв и Шарлотта Уилнер, вопросы сейчас так же сложны, как и десять лет назад. Как мы понимаем контекст изображения? Как мы присваиваем языковое значение? Нарушение кода для контекста — решение невыразимого вопроса о том, почему одна часть контента приемлема, а небольшое изменение нарушает политику — остается Святым Граалем модерации.

В отсутствие полностью автоматизированной системы, сказал Вилнер, есть два вида человеческого модерирования.Один набор решений основан на наблюдаемых качествах, требующих минимальной интерпретации. Например, модератор может увидеть, содержит ли изображение обнаженного малыша в тускло освещенном гостиничном номере — явное нарушение. В таких случаях обученные модераторы могут легко воспользоваться подробными руководствами. Другой метод решения, однако, является более сложным, и интерпретация играет центральную роль. Распознавание издевательств, например, зависит от понимания отношений и контекста, а модераторы не осведомлены ни о том, ни о другом.

«Например, предположим, что однажды я надела зеленое платье на работу, и все надо мной из-за этого смеются», — объяснила Моника Бикерт из Facebook, когда мы разговаривали. «Затем, когда я возвращаюсь домой, люди публикуют в моем профиле Facebook фотографии зеленых лягушек или посты со словами: «Мне нравится твое платье!» именно то, что происходит. Мы стараемся помнить об этом, когда пишем наши политики, и мы также стараемся убедиться, что наши рецензенты учитывают весь соответствующий контент при принятии решения.»

Созданный в 2009 году, первый черновик «стандартов злоупотреблений» Facebook состоял из 15 000 слов и, по словам Уилнера, был «попыткой быть всеобъемлющим».

В то время как Уилнер обязан не обсуждать этот документ в соответствии с соглашением о неразглашении, в 2012 году в новостях просочилась шпаргалка Facebook, которую использовали модераторы-фрилансеры. ненавистнические высказывания, если только не используются ругательства или юмор не очевиден», — гласило одно правило.«Пользователи не могут описывать сексуальную активность в письменной форме, за исключением случаев, когда это попытка пошутить или оскорбить», — говорится в другом. Модераторам были даны явные примеры относительно описанных типов сообщений и фотографий, и им было предложено просматривать только тот контент, о котором сообщалось, а не соседний контент, о котором не сообщалось. Как и в законодательстве США, к контенту, относящемуся к «обычным людям», относились иначе, чем к «общественным деятелям». «Браконьерство животных должно быть подтверждено. Браконьерство исчезающих животных должно быть эскалировано». Такие вещи, как «моча, фекалии, рвота, сперма, гной и ушная сера», были слишком графическими, но карикатурные изображения фекалий и мочи были разрешены.Внутренние органы? Нет. Чрезмерное количество крови? ХОРОШО. «Откровенное (очевидное) изображение верблюжьих пальцев и лосиных суставов?» Запрещенный.

Внутренние органы? Нет. Чрезмерное количество крови? ХОРОШО.

Раздел «Секс и нагота», возможно, лучше всего иллюстрирует субъективность правил и культурные предубеждения. В шпаргалке были запрещены обнаженные дети, женские соски и «трещины на ягодицах». Но такие изображения, очевидно, не считаются неуместными во всех условиях, и правила остаются в зависимости от культурного контекста.

Например, в 2012 году, когда заголовки превозносили социальные сети за их роль в катализе «арабской весны», сирийский протестующий по имени Дана Бакдоунс опубликовала свою фотографию с плакатом, выступающим за равные права женщин.На снимке Бакдоун изображен в майке. Модератор Facebook удалил фотографию и заблокировал администраторов поддерживаемой ею организации «Восстание женщин в арабском мире». О ее фотографии сообщили консерваторы, которые считали изображения женщин с непокрытыми головами и обнаженными плечами непристойными. После публичного протеста Facebook быстро принес извинения и «поработал над исправлением ошибки».

Проблема женской наготы и культурно обусловленных определений непристойности остается острой.Прошлой весной Facebook заблокировал фотографию 1909 года, на которой женщина из числа коренного населения обнажала грудь, что является нарушением постоянно меняющихся правил компании в отношении женщин топлесс. В ответ министерство культуры Бразилии заявило о намерении подать в суд на компанию. Несколько недель спустя протестующие в Соединенных Штатах, участники движения #SayHerName, столкнулись с Facebook и Instagram из-за удаления фотографий, на которых они использовали наготу, чтобы подчеркнуть бедственное положение чернокожих женщин, ставших жертвами полиции.



В начале марта на переполненной панели в South by Southwest под названием «Как далеко мы должны зайти, чтобы защитить язык ненависти в Интернете?» К Джеффри Розену, нынешнему президенту Национального конституционного центра, присоединились, среди прочих, Джунипер Даунс, глава отдела общественной политики Google/YouTube, и Моника Бикерт из Facebook. В какой-то момент, в середине панели, Розен повернулся к Даунс и Бикерт, назвав их «двумя самыми влиятельными женщинами в мире, когда дело доходит до свободы слова». Двое возражали.Они предположили, что целые организации принимают решения о контенте.

Не совсем так. Управление контентом редко рассматривается как приоритетная организационная задача — централизованно объединяя юридические вопросы, обслуживание клиентов, безопасность, конфиденциальность, безопасность, маркетинг, брендинг и персонал для создания единого подхода. Скорее, он все еще обычно втиснут в структуры, которые никогда не строились для такой сложной задачи.

Умеренность остается относительно низкооплачиваемым сектором с низким статусом, которым часто управляют и укомплектовывают женщины

Большинство опрошенных нами инсайдеров и экспертов описали модерацию как изолированную от остальной части организации.По их словам, немногие лица, принимающие решения на высшем уровне, — будь то сотрудники по связям с общественностью, юристы, эксперты по конфиденциальности и безопасности или менеджеры по бренду и продуктам — знакомятся с рассматриваемым материалом из первых рук. Один модератор контента на условиях анонимности сказала, что ее коллеги и руководители никогда не видели изображений насилия, потому что ее работа заключалась в том, чтобы удалять самые отвратительные предметы до того, как они это сделают. Вместо этого ее попросили описать это. «Я видел, как лица людей становятся зелеными».

Джой Подгорный — бывший вице-президент компании ModSquad, которая занимается модерацией контента для ряда важных клиентов, от Государственного департамента до НФЛ.Сейчас она консультант по цифровым медиа, говорит она, основатели и разработчики не только не хотят видеть токсичный контент, они сопротивляются даже пониманию практики модерации. Обычно отбрасываемая как «обслуживание клиентов», модерация и связанная с ней работа остается относительно низкооплачиваемым и низкостатусным сектором, часто управляемым и укомплектованным женщинами, который стоит особняком от высокостатусных, высокооплачиваемых и более влиятельных секторов бизнеса. инженерия и финансы, которые в подавляющем большинстве случаев являются мужскими. «Мне нужно, чтобы вы регулярно смотрели на то, на что смотрят мои люди», — сказала она.«Я хочу, чтобы вы прошли мое обучение и увидели это, [и] вы не подумаете, что это свобода слова. Вы подумаете, что это наносит ущерб культуре не только для нашего бренда, но и в целом».

Брайан Понтарелли, генеральный директор компании Inversoft, занимающейся программным обеспечением для модерации, разделяет это наблюдение. Он сказал нам, что многие компании не будут заниматься жесткой модерацией до тех пор, пока им это не будет стоить того. «Они как бы смотрят на это так, как будто это сложно, и это будет стоить мне много денег, и это потребует много работы, и мне все равно, если это не приведет к потере денег». он сказал.«До этого момента они могут сказать себе, что это не повредит их доходам, люди все еще тратят деньги с нами, так почему мы должны это делать?»

Когда в дело вмешиваются руководители высшего звена, они склонны прыгать с парашютом в моменты кризиса. После стрельбы в Сан-Бернардино в декабре прошлого года Эрик Э. Шмидт, исполнительный председатель Google, призвал промышленность создать инструменты для уменьшения ненависти, вреда и трений в социальных сетях, «что-то вроде проверки орфографии, но для ненависти и домогательство.»

Аналогично словам бывшего генерального директора Twitter Дика Костоло во внутренней записке, опубликованной The Verge в феврале 2015 года. «Мы теряем основного пользователя за основным пользователем, не решая простых проблем троллинга, с которыми они сталкиваются каждый день», — написал он в заключение. , «Мы собираемся начать пинать этих людей направо и налево и следить за тем, чтобы, когда они издают свои нелепые атаки, их никто не слышал». Как будто это было так просто.

Мора-Бланко пять лет проработала в Твиттере, где, по ее словам, «была очень высокая культурная оценка команды доверия и безопасности», отвечающей за модерацию, связанную с домогательствами и оскорблениями.Она присоединилась к компании в 2010 году и вскоре стала менеджером группы политики безопасности пользователей, где она разработала политику в отношении жестокого обращения, домогательств, самоубийств, сексуальной эксплуатации детей и разжигания ненависти. К концу своего пребывания в должности в начале 2015 года она перешла в команду по общественной политике, где помогла запустить несколько инициатив по предотвращению разжигания ненависти, домогательств и сексуальной эксплуатации детей, а также по продвижению свободы слова.

Для Reddit оставление пользователей в основном наедине с их собственными устройствами обернулось годами громких катастроф.Но даже при этом она обнаружила, что у ее команды не было инструментов для эффективной работы. «У команд доверия и безопасности было много идей о том, как реализовать изменения, — сказала она, — но не инженерная поддержка». До 2014 года, по словам Мора-Бланко и бывшего инженера Твиттера Джейкоба Хоффмана-Эндрюса, не было ни одного инженера, занимавшегося вопросами преследования в Твиттере. За последние два года компания предприняла шаги, чтобы примирить необходимость пресечения злоупотреблений со своей приверженностью самой широкой интерпретации немодерируемой свободы слова, публично объявив о создании консультативного совета и организовав учебные занятия с правоохранительными органами.

По словам источника, близкого к процессу модерации на Reddit, климат там намного хуже. Несмотря на размер и влияние сайта, привлекающего от 4 до 5 миллионов просмотров страниц в день, штат Reddit насчитывает всего около 75 человек, что позволяет пользователям Reddit в основном следить за собой, следуя сообщению «reddiquette», в котором описывается, что представляет собой приемлемое поведение. . То, что пользователи почти полностью предоставлены самим себе, привело к годам громких катастроф, связанных практически со всеми формами нежелательного контента, включая целые токсичные сабреддиты, такие как /r/jailbait, /r/creepshots, /r/teen_girls, /r/fatpeoplehate. , /r/coontown,  /r/niggerjailbait,  /r/picsofdeadjailbait и целую категорию античерных Reddits под названием «Chimpire», которая процветала на платформе.

После общественного возмущения по поводу CelebGate — размещения на Reddit взломанных личных фотографий более 100 женщин-знаменитостей — опрос более 16 000 пользователей Reddit показал, что 50 процентов тех, кто не рекомендовал бы Reddit, ссылались на «ненавистный или оскорбительный контент». или сообщества» в качестве причины. После того, как опрос был опубликован в марте 2015 года, компания объявила: «Мы видим, что наша открытая политика душит свободу слова; люди избегают участия, опасаясь за свою личную и семейную безопасность.Алексис Оганян, соучредитель Reddit, и другие члены команды Reddit описали медленную реакцию компании на CelebGate как «упущенный шанс стать лидером» в вопросе модерирования неконсенсуальной порнографии. Два месяца спустя Reddit опубликовал один своей первой корпоративной политики модерации по борьбе с домогательствами, которая запрещала порноместь и поощряла пользователей отправлять модераторам электронные письма с опасениями. Reddit включает функцию отчета, которая анонимно направляется модераторам-добровольцам, чья способность действовать в отношении сообщений подробно описана на сайте.

Алексис Оганян назвал медленную реакцию Reddit на CelebGate «упущенным шансом стать лидером».

Но исследование также выявило философское столкновение между приверженностью сайта к открытому выражению, которое способствовало раннему росту, и стремлением к ограничениям среди пользователей, которые могут способствовать будущему росту: 35 процентов жалоб от «крайне неудовлетворенных пользователей» должны были быть удовлетворены. к «деспотичной модерации и цензуре». Компания продолжает бороться с парадоксом: для расширения Reddit (и другим платформам), скорее всего, придется регулировать речь таким образом, чтобы оттолкнуть значительный процент их основной клиентской базы.

Когда летом 2015 года его спросили о расистских сабреддитах, которые остались в силе, несмотря на новую политику компании, генеральный директор Стив Хаффман сказал, что контент «оскорбителен для многих, но не нарушает наши текущие правила запрета», и пояснил, что изменения были не «официальное обновление нашей политики». К тому времени, как писал технический обозреватель Slate Дэвид Ауэрбах, Reddit многие считали «выгребной ямой ненависти, остро нуждающейся в ремонте». В течение нескольких недель Reddit объявил об удалении списка расистских и других «сообществ, которые существуют исключительно для того, чтобы раздражать других пользователей Reddit, [и] мешать нам улучшать Reddit и в целом делать Reddit хуже для всех остальных.»

Резкий контраст между Facebook с его надежным и давно существующим Консультативным советом по безопасности и Reddit с его скелетным персоналом и темными пулами оскорбительного контента предлагает яркую иллюстрацию того, как модерация контента развивалась изолированно в отдельных корпоративных анклавах. . Фрагментация означает, что контент, запрещенный на одной платформе, может просто появиться на другой, а троллинг можно координировать таким образом, чтобы домогательства и оскорбления, которые кажутся незначительными на одной платформе, усиливались за счет одновременного появления на нескольких платформах.

Писательница, выступающая под псевдонимом Эрика Маннингс и просившая, чтобы мы не использовали ее настоящее имя из-за страха возмездия, оказалась жертвой одного из таких нападений, которое она описывает как «игру в ударь крота с серьезными последствиями». через несколько социальных сетей в течение нескольких дней и недель». После написания феминистской статьи, вызвавшей негативную реакцию консерваторов, последовала пятидневная «порка в Твиттере». Оттуда атаки переместились на Facebook, YouTube, Reddit и 4chan. Самозваные оперативные группы пользователей Reddit и 4chan опубликовали ее адрес и завалили ее профессиональную организацию электронными письмами с требованием отозвать ее профессиональную лицензию.Она закрыла комментарии к своим видео на YouTube. Она вышла из Твиттера. На Facebook преследование было изнурительным. Чтобы разделить свою личную и профессиональную жизнь, она создала отдельную страницу в Facebook для своего бизнеса. Однако пользовательские элементы управления на таких страницах невелики, и ее злоумышленники проникли внутрь. «Я не мог удалить отзывы с одной звездой или сделать выбор, как малый бизнес, чтобы вообще не иметь «Отзывов» на моей странице», она сказала. «Такая политика открывает шлюзы интернет-ненависти и связывает мне руки за спиной.Я никак не мог сообщить о каждой атаке через несколько платформ социальных сетей, потому что они обрушивались на меня так быстро и в таком большом количестве. Но также мне стало ясно, что, когда я отчитывался, никто не отвечал, так что у меня действительно не было стимула продолжать отчитываться. Это стало еще одной дорогостоящей тратой времени помимо удаления комментариев, блокировки людей и захвата всего с экрана для моей собственной защиты. Поскольку никто не хотел мне помочь, я чувствовал, что у меня нет другого выбора, кроме как ждать, что стоило мне бизнеса и дохода.»

Несколько экспертов по модерации контента считают Pinterest лидером отрасли. Тарлтон Гиллеспи из Microsoft, автор предстоящей книги «Свобода слова в эпоху платформы », говорит, что компания, вероятно, делает все возможное, как любая социальная сеть, для преодоления разрыва между платформой и пользователем, частной компанией и общественностью. Персонал модераторов платформы хорошо финансируется и поддерживается, и, как сообщается, Pinterest открывает новые возможности в обеспечении прозрачности своих процессов для пользователей.Например, Pinterest публикует наглядные примеры, иллюстрирующие «политику допустимого использования» сайта, чтобы помочь пользователям лучше понять правила содержания платформы и решения, принимаемые модераторами для их соблюдения.

В ответ на фильм «Пятьдесят оттенков серого» Pinterest поспешила разработать новые стандарты БДСМ. Она и ее команда спешили разработать новые стандарты БДСМ.«Мы поняли, — позже объяснила она по электронной почте, — что нам нужно будет определить стандарты для фэнтезийного контента об изнасиловании и похищении людей, которых мы не видели много, но мы начали видеть в связи с общим притоком БДСМ. .»

Звонки были непростыми, но было ясно, что ее команда принимала решения на чрезвычайно детальном уровне. Один пользователь публиковал фетишистские комментарии о приготовлении женщин размером с Барби в кастрюле для тушения. Это должно быть разрешено? Почему нет? Команда должна была расшифровать, была ли это реальная угроза.Команда решила, что женщина в натуральную величину не может поместиться в кастрюлю для тушения, поэтому маловероятно, что содержимое нанесет вред в реальном мире. В конце концов, они оставили посты в силе — то есть, по словам Уилнера, до тех пор, пока «парень из кастрюли» не начал загружать более откровенный контент, который явно нарушал условия Pinterest, и ее команда удалила его учетную запись.

На той же панели «Юг через юго-запад» Розен выразил обеспокоенность как корпоративным регулированием свободы слова, так и новыми строгими правилами Европейского Союза, такими как право на забвение.«Правила цензуры, которые имеют более низкий стандарт, чем Первая поправка, слишком легко злоупотребляют правительствами», — сказал он. Тем не менее, он высказал несколько теплых слов похвалы, заявив, что такие компании, как Google, Facebook и Twitter, «пытаются провести невероятно тонкую и сложную линию» и «баланс, которого они придерживаются, является разумным», учитывая давление, которое они испытывают. лицо. Он добавил: «Судьи, регулирующие органы и даже очень умные, замечательные юристы Google» справляются с этой нежелательной задачей настолько хорошо, насколько это можно себе представить.Это было поразительное замечание, учитывая подтверждение Google всего несколькими днями ранее, что он нанял скандально известного основателя 4chan Кристофера Пула. Известный отраслевой критик Шэнли Кейн написал возмущенный пост, в котором Пул был назван ответственным «более десяти лет за внедрение одного из самых гнусных , жестокие и вредные «сообщества» в Интернете». Для маргинализированных групп, писала она, это решение «посылает не только «плохой сигнал», но и гигантское «идите на хуй».


Несколько источников сообщили нам, что инсайдеры отрасли, разочарованные своей изоляцией, начали работать независимо от своих работодателей.Дэйв Уилнер и другие, говорившие на условиях анонимности, рассказали нам, что 20 или 30 человек, работающих умеренно, начали время от времени встречаться за ужином в Сан-Франциско, чтобы неформально обсудить свою работу.

Один из ведущих экспертов, Дженнифер Пакетт, проработала в модерации более 15 лет и сейчас работает менеджером по социальной репутации, возглавляя группу цифровой безопасности в Emoderation. Она считает, что модерация как индустрия взрослеет. С одной стороны, человеческий опыт растет, поэтому стол молодых выпускников колледжей на YouTube кажется причудливым.«Люди строят свое обучение в колледже вокруг таких профессий», — говорит Мора-Бланко. «В отрасли есть кандидаты наук на стажировку». С другой стороны, усилия по автоматизации модерации также продвинулись вперед.

Все большее число исследователей разрабатывают технологии, предназначенные для понимания пользовательского контента, а компании предлагают уникальные и запатентованные аналитические средства и алгоритмы, которые пытаются измерить значение и предсказать поведение. Технологии адаптивного прослушивания, которые все чаще способны предоставлять сложную аналитику онлайн-разговоров, разрабатываются для оценки контекста и намерений пользователя.

«Если система модерации является фабрикой, этот подход перемещает поштучную работу в сторону сборки.»

В мае 2014 года Дэйв Уилнер и Дэн Келменсон, инженер-программист Facebook, запатентовали технологию 3D-моделирования для модерации контента, разработанную на основе системы, напоминающей промышленную сборочную линию. «Это разбивает проблему [огромного объема] на части, чтобы сделать их более понятными», — говорит Уиллнер. Во-первых, модель идентифицирует набор злонамеренных групп — скажем, неонацистов, производителей детской порнографии или пропагандистов изнасилований.Затем модель идентифицирует пользователей, которые связаны с этими группами через их онлайн-взаимодействия. Затем модель ищет другие группы, связанные с этими пользователями, и анализирует эти группы «на основе вхождений ключевых слов, связанных с типом вредоносной деятельности, и ручной проверки экспертами». Таким образом, компании могут выявлять дополнительную или возникающую вредоносную активность в Интернете. «Если система модерации — это фабрика, этот подход перемещает поштучную работу в сторону сборки», — сказал он.«И вы можете измерить, насколько хороша система».

Работая с Microsoft, Хани Фарид, заведующий кафедрой компьютерных наук в Дартмутском колледже, разработал нечто под названием PhotoDNA, которое позволяет технологическим компаниям автоматически обнаруживать, удалять и сообщать о наличии изображений эксплуатации детей в своих сетях.

Во время нашего разговора Фарид описал первоначальное сопротивление PhotoDNA, как инсайдеры индустрии сказали, что проблема эксплуатации детей слишком сложна для решения. Да, это ужасно , вспомнил он всех — руководителей, юристов, инженеров — говорили, но там так много содержания .Он вспоминает, что группы по защите гражданских свобод также возражали против автоматизированной системы модерации.

Поговорите с этими людьми сегодня, сказал он, и они расскажут вам, насколько успешной была программа PhotoDNA. PhotoDNA обрабатывает изображение каждые две миллисекунды и обладает высокой точностью. Во-первых, объясняет он, NCMEC идентифицирует известные изображения эксплуатации детей. Затем PhotoDNA извлекает из каждого изображения числовую подпись, уникальную для этого изображения, «как ваша человеческая ДНК для вас». Всякий раз, когда изображение загружается в Facebook, Tumblr, Twitter и т. д., говорит он, «его фотоДНК извлекается и сравнивается с известными нам изображениями CE.Совпадения автоматически обнаруживаются компьютером и передаются в NCMEC для последующего расследования». Он говорит, что сложностью модерации контента является не идентификация контента, а «долгие, трудные разговоры» — которые ведут люди, а не машины — необходимые для принятия жестких решений о том, что составляет личную или политическую речь.Сейчас Фарид работает с технологическими компаниями и некоммерческими группами над разработкой аналогичной технологии, которая будет выявлять экстремизм и террористические угрозы в Интернете — независимо от того, выражены ли они в речи, изображениях, видео или аудио. Он ожидает, что программа будет запущена в течение нескольких месяцев, а не лет.

В то время как технические решения появляются быстро, культурные решения появляются медленнее. Эмили Лейдлоу, доцент права Университета Калгари и автор книги , регулирующей речь в киберпространстве , призывает «разъяснить применимость существующих законов.«Для начала, — говорит она, — раздел 230 Закона о приличии в коммуникациях 1996 года нуждается в немедленном пересмотре. Она утверждает, что компании больше не должны полностью освобождаться от ответственности за размещаемый ими контент».

На протяжении более пяти лет Беркмановский центр Интернета и общества при Гарвардском университете продвигает передовой опыт в отрасли. Их рекомендации включают корпоративную прозрачность, последовательность, ясность и механизм обращения клиентов.Другие сторонники гражданского общества призывают к созданию доступных и прозрачных механизмов рассмотрения корпоративных жалоб в соответствии с международным законодательством о правах человека или призывают корпорации к публичному диалогу с такими активными заинтересованными сторонами, как Антидиффамационная лига, Фонд цифровых прав и Национальная сеть. положить конец домашнему насилию. «То, что мы делаем, основано на внешних разговорах, которые у нас есть», — объяснил Бикерт из Facebook в начале марта. «Каждый день мы разговариваем с группами по всему миру… Итак, хотя мы несем ответственность за надзор за этими политиками и управление ими, это действительно глобальный разговор.»

«У нас один набор стандартов контента для всего мира.»

Некоторые крупные компании, такие как YouTube, Pinterest, Emoderation, Facebook и Twitter, начинают улучшать методы модерации, используя как технические, так и человеческие решения.

За восемь месяцев, прошедших с момента ухода генерального директора Дика Костоло, Twitter обратился к пользователям и сторонникам, чтобы быть более отзывчивым. В начале февраля Патриция Картес, глава отдела глобальной политики Twitter, объявила о создании Совета по доверию и безопасности, междисциплинарного консультативного совета, состоящего из 40 организаций и экспертов.Тем не менее, члены таких органов, как этот, и Консультативный совет по безопасности Facebook, созданный в 2009 году, действуют в соответствии с NDA, а это означает, что разговоры, происходящие в этих местах, остаются за кадром. В 2010 году Google основал Google Ideas (теперь Jigsaw), междисциплинарный аналитический центр для решения проблем, связанных с защитой от глобальных угроз безопасности и защитой уязвимых слоев населения. Между тем, во всем мире возникла виртуальная кустарная индустрия интернет-горячих линий, таких как Crash Override Network Зои Куинн, онлайн-горячая линия для школ и горячие линии «порно-месть» в Соединенных Штатах и ​​​​Великобритании.

По мере того, как эти политические дебаты продвигаются в частном порядке, платформы также предпринимают шаги для защиты своих передовых модераторов. Медина сообщил нам, что представители Google, Microsoft, Yahoo, Facebook и Kik недавно посетили тренинги SHIFT по устойчивости. По словам Сильвера, главы группы поддержки сообщества Facebook, сотни модераторов Facebook, расположенных в Менло-Парке, Остине, Дублине и Хайдарабаде, теперь регулярно проходят обучение, получают подробные руководства, консультации и другую поддержку.Компания привлекает экспертов или обучает специалистов в конкретных областях, таких как самоубийства, торговля людьми, эксплуатация детей, насилие в отношении женщин и терроризм. По ее словам, решения модераторов в отношении заявленных фрагментов контента регулярно проверяются, чтобы гарантировать, что модерация является последовательной и точно соответствует руководящим принципам. «У нас один набор стандартов контента для всего мира», — объясняет Бикерт из Facebook. «Это помогает нашему сообществу быть по-настоящему глобальным, потому что позволяет людям делиться контентом через границы.В то же время поддерживать один набор стандартов сложно, потому что люди во всем мире могут иметь разные представления о том, что уместно делиться в Интернете».

Однако многие американские компании продолжают отправлять своих модераторов на периферию, отправляя цифровые отходы своих платформ в «особые экономические зоны» на Глобальном Юге. Как рассказывает Робертс в своей статье «Цифровой мусор», эти токсичные изображения прослеживают те же маршруты, по которым вывозятся физические отходы индустриального мира — опасные отходы больниц, грязные подгузники для взрослых и компьютеры старых моделей.Без видимых последствий здесь и по большей части невидимых, компании сваливают на люди отчаянно нуждаются в работе. И там они сидят в переполненных комнатах в колл-центрах или в одиночестве, работая вне офиса за своими экранами и сталкиваясь с создающейся киберреальностью. Между тем, каждый новый стартап, по сути, начинает процесс сначала.

Между тем, каждый новый стартап, по сути, начинает процесс заново

И даже лидеры отрасли продолжают полагаться на своих пользователей, которые сообщают о неприемлемом контенте и помечают его. Эта зависимость, по словам Николь Девандр, советника Европейской комиссии по политике в области информационных и коммуникационных технологий, является «изнурительной рабочей деятельностью, которая не обеспечивает ответственности». Принцип встречной речи, в соответствии с которым пользователи должны активно опровергать ненавистные или вредные сообщения, твердо возлагает бремя и риски действий на пользователей, а не на платформы для зарабатывания денег, которые зависят от их контента.Возможно, по этой причине встречная речь стала модным словечком в отрасли. Сьюзен Бенеш, основательница проекта «Опасная речь», который отслеживает подстрекательскую речь и ее последствия, отмечает, что, хотя контрречь является важным инструментом, «она не может быть единственным решением. Мы еще недостаточно понимаем, когда она эффективна и может ли часто подвергают оппонента риску атаки, онлайн или офлайн».

Сара Т. Робертс, исследователь, предупреждает, что «мы не можем упускать из виду базовый уровень.Платформы, отмечает она, «запрашивают контент. Именно их просьба побуждает людей загружать контент. Они создают выход и импульс». Если модераторы, по оценке Дэйва Уилнера, являются эмоциональными работниками платформ, то пользователи, по словам исследователя труда Кайли Джарретт, являются их «цифровыми домохозяйками» — они добровольно посвящают свое время и повышают ценность системы. оставаясь неоплачиваемой и невидимой, получая компенсацию только за счет аффективных выгод. Теперь вопрос в том, как общественность может использовать силу, присущую этой роли? Астра Тейлор, автор книги Народная платформа , говорит: «Я поражен тот факт, что мы используем эти метафоры с гражданским уклоном, называя Google Книги «библиотекой» или Twitter «городской площадью» или даже называя социальные сети «социальными», но реальные общедоступные варианты не обсуждаются, по крайней мере, в Соединенных Штатах.«Хотя пользователи несут ответственность за предоставление огромного количества цифрового контента и контроль над ним, — отмечает она, — мы затем «передаем цифровое достояние частным корпорациям на свой страх и риск».


19 января 2015 года Мора-Бланко собрала свой стол и покинула Твиттер.

Со своей последней должности в общественной политике ей больше не приходилось день за днем ​​показывать изображения насилия, и после нескольких месяцев закладки фундамента, как она сказала нам, «все начало меняться и двигаться в направлении, которое я всегда хотела.«Она и ее коллеги — из юридического отдела, отдела безопасности, поддержки, государственной политики, контента, «всех кусочков головоломки по всей платформе», — начали еженедельно встречаться, чтобы бороться с домогательствами и угрозами в Интернете. «Мы должны сидеть в комнате вместе. , — сказала она, — и все почувствовали, что действительно связаны друг с другом и что мы можем двигаться вперед вместе».

Но она, наконец, заработала достаточно денег, чтобы год учиться на парикмахера. Что не менее важно, она чувствовала, что наконец-то может уйти, не предав своих коллег, особенно тех, кто работает на передовой.

Сегодня Мора-Бланко изучает косметологию в Институте Синта Аведа в центре Сан-Франциско. Она сказала нам, что ей нравится ее новая работа, потому что она дает ей свободу вводить новшества. «Я люблю мыслить масштабно, но я действительно увлечен творчеством».

«Что ты здесь делаешь?» — спрашивает ее инструктор. «Вы могли бы пойти и заработать так много денег».

Время от времени она берет онлайн-консультации по безопасности — она не полностью исключает возможность вернуться.«Но все должно измениться», — сказала она. «Я хотел бы быть частью этих изменений, но мне нужно быть уверенным, что отношение к этой пропагандистской работе будет рассматриваться серьезно, что отрасль будет другой».

* *

Исправление: В предыдущем черновике этой статьи предполагалось, что Google приобрела YouTube в октябре 2005 года. На самом деле это приобретение произошло в октябре 2006 года.

* *

Кэтрин Буни — писатель и редактор, чьи работы публиковались в New York Times , theAtlantic.com, Los Angeles Review of Books и Orion , среди прочих.

Сорайя Чемали — медиакритик, писатель и активист, чья работа посвящена свободе слова и роли гендера в культуре. Ее работы регулярно появляются в Salon , Guardian , Huffington Post , CNN.com, Ms. и других изданиях, и она часто комментирует СМИ на смежные темы.

Что такое модерация контента — блог CompanionLink

Что такое модерация контента? Это относится к отслеживанию и удалению из пользовательского контента нежелательных частей на основе правил и критериев для конкретной платформы.Это помогает определить, можете ли вы использовать контент на платформе или нет. Когда такой контент, как обзор или обратная связь, отправляется на веб-сайте, он проходит процесс проверки, чтобы убедиться, что он соответствует правилам веб-сайта. Модерация контента имеет решающее значение, поскольку помогает веб-сайту поддерживать базу данных с чистыми данными.

Модерация контента распространена на цифровых платформах, которые полагаются на пользовательский контент (UGC). К ним относятся сайты электронной коммерции, социальные сети и сайты знакомств. Ниже приведены преимущества модерации контента.

Важность модерации контента

Повышает рейтинг вашего сайта в поисковых системах и посещаемость

Модерация контента помогает органично повысить рейтинг вашего сайта в поисковых системах. Контент более высокого качества, включая пользовательский контент (UGC), позволяет вам занимать более высокие позиции на странице результатов поисковой системы (SERP). Направляя больше людей к вашему контенту, ваш сайт получает больше трафика.

Защищает ваш бренд

У пользователей разные вкусы и предпочтения.Поэтому вы не всегда можете гарантировать, что весь пользовательский контент на вашем веб-сайте соответствует вашим стандартам и принципам сообщества. Модераторы контента помогают защитить ваш форум, учетную запись в социальной сети или веб-сайт от любого нежелательного пользовательского контента. Поддерживая ваших клиентов положительными отзывами на ваших контент-платформах, модераторы контента помогают поддерживать хорошую репутацию и защищать ваш бренд. Чтобы обеспечить ценность, пользовательский контент необходимо модерировать по различным направлениям.

Получение информации о пользователях

Модерируя контент, вы лучше понимаете свое сообщество. Модераторы контента могут просматривать пользовательский контент, чтобы увидеть, как они реагируют на ваши услуги. Затем компании могут использовать данные и анализ настроений для создания предложений, ориентированных на бренд. Компания может использовать контентную модерацию пользовательского контента не только в маркетинге, но и в дизайне продукта.

Защита вашего интернет-сообщества

Ваше интернет-сообщество должно быть защищено от троллей, спама и откровенного контента.Они должны иметь возможность свободно выражать свое мнение по вопросам, касающимся бренда. Модерация контента необходима для защиты вашей онлайн-платформы от такого оскорбительного контента.

Другие преимущества модерации контента включают масштабирование ваших маркетинговых кампаний и сохранение предварительно очищенных данных.

Существует несколько типов модерации контента. Тип модерации контента, используемый конкретной компанией, зависит от характера предлагаемых ею услуг и объема пользовательского контента. Разобравшись, что такое модерация контента, какие бывают ее виды?

Типы модерации контента

Премодерация

В этом методе весь контент, представленный зарегистрированными представителями или пользователями, передается группе проверки.Группа проверки использует различные критерии для обнаружения любых нарушений, которые могут содержаться в контенте. Поэтому в ходе предварительной модерации оскорбительный или неприемлемый контент удаляется до того, как он появится на веб-сайте. Премодерация — идеальный выбор для онлайн-сообществ, которые обслуживают пользователей с высоким уровнем риска, таких как дети, для предотвращения издевательств и сексуальных домогательств. Хорошим примером является Facebook и игровые онлайн-платформы.

Постмодерация

С точки зрения взаимодействия с пользователем, на онлайн-платформах, требующих модерации, постмодерация лучше, чем предварительная модерация.Контент размещается на сайте, но реплицируется в очередь для последующего рассмотрения модератором. Это позволяет разговорам происходить непосредственно внутри пользователей. Оператор платформы становится законным издателем контента по мере роста сообщества. К сожалению, для некоторых сообществ, таких как новости о знаменитостях, это может быть рискованно.

Реактивная модерация

При этом типе модерации компания полагается на то, что пользователи будут отмечать то, что они считают неуместным или противоречащим правилам компании.Он действует как защитная сетка для нежелательного контента, который проходит мимо модераторов при использовании наряду с другими типами модерации.

Автоматическая модерация

Этот тип модерации использует технические средства и искусственный интеллект (ИИ) для обработки и модерации контента. Он применяет предопределенные правила и обработку естественного языка для утверждения или отклонения пользовательского контента. Фильтр слов — наиболее часто используемый инструмент автоматической модерации. Словарь запрещенных слов и инструмент либо заменяют, либо помечают слово для проверки, либо полностью отклоняют публикацию.Кроме того, система капчи используется для определения, является ли пользователь человеком или ботом.

Другие виды автоматической модерации
  • Блокировать ключевое слово — Система отклоняет все сообщения, содержащие определенное слово
  • Фильтр изображений — Здесь инструмент удаляет все сообщения, содержащие запрещенные изображения, такие как насилие или нагота.
  • Заблокировать пользователя — автоматическая модерация отклоняет весь входящий контент определенного пользователя.
  • Пользователь из белого списка — Система одобряет все входящие сообщения, принадлежащие определенному пользователю.Они обходят очередь модератора.

Без модерации

Хотя выбор не модерировать контент в нынешнюю эпоху может оказаться фатальным. С появлением онлайн-преследований, киберпреступлений и преступлений на почве ненависти предприятия и компании стали серьезно относиться к модерации контента.

Что можно и чего нельзя делать при модерации контента

Запрещено модерировать контент

Подождите немного, прежде чем начать модерировать свой контент

Не ждите долго, прежде чем начать модерировать свой контент.По мере роста вашей платформы вам понадобится схема для умеренного создания пользовательского контента.

Неверно истолковать хороший контент

Качественный контент необходим для создания доверия пользователей и обеспечения надежного взаимодействия с пользователем на вашей платформе. Избегайте неправильного толкования хорошего контента, из-за которого вы в конечном итоге отбрасываете пользовательский контент только потому, что он негативный.

Что нужно для модерации контента

Модерировать весь контент

Чтобы обеспечить веселое взаимодействие на вашей платформе, убедитесь, что весь контент правильно модерируется, будь то фотографии, текст или видео.

Наличие четких правил и указаний

Ваши правила и рекомендации по модерации контента должны быть прозрачными для всех тех, кто участвует в модерации контента на вашей платформе.

Форма модерации нужна примерка

Что это за контент и кто пользователи вашей платформы? Это создает представление о том, какие критерии модерации и настройки следует использовать.

Аутсорсинг модерации контента

Если вашей компании требуется профессиональная модерация контента, вы должны отдать ее на аутсорсинг.Преимущества аутсорсинга перед наймом сотрудников:

Это освобождает вас от найма и обучения новых модераторов контента

Формирование команды профессиональных модераторов контента занимает много времени. Это включает в себя найм, обучение, обратную связь и мониторинг. Вместо того, чтобы проходить через все это, почему бы не просто отдать на аутсорсинг? Таким образом, вы можете сосредоточиться на основных функциях вашего бизнеса.

Экспертные модераторы контента

Через Oworkers вы получаете помощь опытных модераторов.Аутсорсинговые компании имеют список профессиональных модераторов, которые окажут вам качественную поддержку модерации вашей платформы.

Необходимый инструмент и готовые знания

Аутсорсинговые компании обеспечивают наличие всех инструментов, рабочей силы и процессов, прежде чем предлагать бизнес-решение. Передавая модерацию контента на аутсорсинг, вы избегаете затрат на создание новых офисов, получение ресурсов, найм и обучение новой команды. Поэтому вам не нужно покупать инструменты или нанимать и обучать команду по созданию контента.

Итог

Чтобы обеспечить веселое и захватывающее взаимодействие между пользователями вашей платформы, крайне важно модерировать контент. Кроме того, модерация вашего контента с использованием любого из вышеперечисленных методов имеет много преимуществ. Аутсорсинг ваших потребностей в модерации контента экономит ваше время и деньги, предлагая вам услуги самого высокого качества.

5 типов модерации контента и автоматизированных решений с использованием ИИ от Clarifai

Пользовательский контент (UGC) теперь можно найти не только на сайтах социальных сетей.Все больше и больше компаний в разных отраслях используют пользовательский контент для увеличения доходов и создания лидерства и лояльности к бренду. Автомобильные компании, рестораны, сайты путешествий и электронной коммерции используют пользовательский контент, чтобы убедить потенциальных клиентов выбрать их. Недавнее исследование показало, что 85% людей доверяют контенту, созданному пользователями, а не контенту, созданному компанией. Что поддерживает важность модерации пользовательского контента.

Зачем нужна модерация контента?

Не весь пользовательский контент связан с изображениями и видео.Часто используется ненормативная лексика. В Интернете часто сообщается о нецензурной лексике, и поэтому важно ее выявлять. Пользовательские изображения, видео и текстовый контент нельзя просто разместить на веб-сайте или странице в социальной сети. Его нужно контролировать и проверять в первую очередь. Подумайте, что может случиться с вашим брендом и вашим сообществом, если будет опубликовано что-то незаконное. Пострадает не только ваша репутация, это также повлияет на членов вашего сообщества, и вы откроете для себя проблемы с ответственностью.Существует некоторый контент, например материалы о сексуальной эксплуатации детей (CSEM), которые, независимо от того, знаете ли вы, что они у вас есть, или нет, являются незаконными для хранения на ваших серверах. Кроме того, существует опасность для психики модераторов, видящих этот ядовитый, неприемлемый контент в повседневной жизни. Были возбуждены судебные иски против модераторов, страдающих посттравматическим стрессовым расстройством из-за своей повседневной работы. По этим причинам модерация контента становится важной функцией во многих компаниях, присутствующих в Интернете.

…так какой тип модерации контента выбрать?

Существует 5 распространенных типов модерации контента. 6 th вообще не модерирует контент, что никогда не бывает хорошей идеей и может отправить ваше сообщество в штопор. Другие типы определенно будут поддерживать чувство порядка в вашем сообществе.

Премодерация

Именно так — контент проходит модерацию перед публикацией на веб-сайте. Предварительная модерация, проводимая хорошим модератором, гарантирует, что неприемлемый контент будет помечен и не будет опубликован.Хотя он обеспечивает высокий контроль над тем, какой контент в конечном итоге отображается на вашем сайте, у него есть много недостатков. Это задерживает публикацию контента, который в сегодняшнее время мгновенного удовлетворения люди хотят и ожидают увидеть немедленно. Этот метод может быть дорогостоящим, поскольку ваш контент масштабируется. Это идеально подходит для сообществ с высоким уровнем правового риска, таких как сообщества знаменитостей или детей, где защита жизненно важна. Для неразговорного или чувствительного ко времени контента, такого как обзоры или фотографии, его можно использовать, не слишком затрагивая сообщество.

Постмодерация

Этот тип модерации контента выполняется после публикации контента. Хотя пользователи предпочитают его, он может вызвать множество проблем для компании. По мере роста сообщества растут и необходимые ресурсы, а затраты становятся важным фактором. Поддержание объемов контента для модерации и быстрого удаления может стать проблемой. С юридической точки зрения владелец веб-сайта на законных основаниях становится издателем контента, поскольку каждый фрагмент контента просматривается и утверждается или отклоняется, что может подвергнуть их риску ответственности.

Реактивная модерация

Этот тип модерации контента возлагает на сообщество пользователей обязанность помечать и сообщать о неприемлемом контенте. Его можно использовать вместе с методами модерации до и после контента на случай, если что-то пройдет мимо модераторов. В большинстве случаев это используется как единственная форма модерации. Основное преимущество этого типа модерации заключается в том, что вы можете масштабироваться по мере роста вашего сообщества, не нагружая ресурсы модерации и не увеличивая расходы.Теоретически вы можете избежать ответственности за клеветнический или незаконный контент, загруженный пользователями, если ваш процесс удаления контента после уведомления происходит в течение приемлемого периода времени.

Распределенная модерация

Реже используется модерация контента, которая зависит от аудитории. По сути, это самомодерируемый подход с добавленной системой рейтинга. Контент публикуется непосредственно на веб-сайте, а затем пользователи голосуют, соответствуют ли представленные материалы принципам или правилам сообщества.Пользователи контролируют комментарии или сообщения с некоторыми указаниями модераторов-людей.

Автоматическая модерация

Автоматическая модерация контента — наиболее распространенный тип метода модерации контента. Это включает в себя использование компьютерного зрения, обработки естественного языка и искусственного интеллекта. Модерировать можно не только изображения, но также текстовое содержимое и даже текст внутри изображений. Используя модели ИИ, контент можно просматривать и фильтровать автоматически — быстрее и в нужном масштабе.Недопустимый контент можно пометить и запретить публикацию почти мгновенно. Все это можно использовать для поддержки работы модератора-человека, чтобы ускорить процесс с большей точностью.

Почему модерация является ключом к развитию интернет-сообществ

Кристин Зерковски, вице-президент по развитию сообщества Health Union

Модерация является ключевым компонентом подхода Health Union к развитию сообщества. Что такое модерация в терминах Health Union?

В сетевых сообществах модерация принимает множество различных форм и определений.В Health Union мы рассматриваем это как инструмент для взаимодействия и лучшего понимания наших сообществ. Мы стремимся создавать настоящие связи с реальными людьми, которые живут с хроническими заболеваниями, и модерация — это способ, которым мы демонстрируем эту приверженность в наших онлайн-сообществах, посвященных вопросам здоровья.

Как подход Health Union к модерации можно сравнить с практикой модерации в отрасли в целом?

За прошедшие годы мы научились применять методы модерации, которые помогают нам не только активно участвовать в том, что говорит и делает сообщество, но и побуждают нас понимать «почему», стоящее за их поведением.Мы слушаем, чтобы понять, а не ответить, что оказалось ключевым принципом в построении прочных отношений.

В рамках практики модерации Health Union мы применяем правила взаимодействия, которые создают безопасную и благоприятную среду для сообщества, что включает в себя очень консервативный подход к полицейскому поведению в наших сообществах. Мы научились чувствовать себя комфортно с контентом, который заставляет нас извиваться, и это действительно ключевой отличительный фактор для нас. Мы очень неохотно удаляем комментарии и еще более нерешительно баним участников сообщества.Важно, чтобы мы не уклонялись от неудобных вопросов и разговоров, а говорили о них публично. Благодаря сильному присутствию наших опытных модераторов члены сообщества чувствуют себя комфортно, готовы поделиться и с большей вероятностью вернутся.

Пожалуй, самым уникальным является то, что наши модераторы — настоящие люди, а не роботы, и наши ответы не являются шаблонными. У нас есть люди, которые реагируют на комментарии и взаимодействие как личности, признавая свои чувства и эмоции и предоставляя им то, что они ищут, будь то информация, поддержка или просто кто-то, кого можно выслушать.Услышав от настоящих, искренних людей, вы оказываете невероятное влияние на человека и на сообщество в целом и повышаете ценность участия.

Как изменилась практика модерации Health Union за последние девять лет?

Можно ожидать, что произошло много изменений; тем не менее, принципы модерации Health Union практически не изменились с тех пор, как в 2010 году было запущено наше первое сообщество Migraine.com. Поддержание доверия и прозрачности всегда лежало в основе нашей практики модерации.Конечно, по мере роста существующих сообществ и создания новых сообществ мы вносим коррективы по мере возникновения проблем, поэтому некоторые правила участия эволюционировали; но стремление поддерживать безопасную и благоприятную среду, которой доверяют наши сообщества, имеет первостепенное значение. Кроме того, поскольку озабоченность по поводу конфиденциальности и публичной публикации в социальных сетях в последние годы усилилась, мы начали предлагать другие, более анонимные места для общения участников с нами и друг с другом.

Как модерация вписывается в остальную модель сообщества Health Union?

Наша цель в Команде Сообщества — сделать так, чтобы люди чувствовали себя лучше, встречая их «там, где они есть» в данный момент времени — умственно, эмоционально и физически.Модерация — это наш инструмент для обеспечения того, чтобы мы действительно взаимодействовали с людьми в наших сообществах — мы здесь для хороших, плохих и уродливых. Крайне важно, чтобы мы никогда не становились «теми людьми в башне из слоновой кости» — оторванными от реальности. Для этого мы должны по-настоящему погрузиться в их опыт, и мы можем сделать это благодаря триангуляции контента, вовлеченности и модерации. Умеренность является ключевым компонентом, который связывает все вместе, поскольку позволяет людям чувствовать себя услышанными и в безопасности в этой среде.Каждый компонент модели усиливает другой.

Каковы результаты? Как партнеры Health Union могут извлечь выгоду из нашего уникального подхода?

Я думаю, что одна из самых ценных вещей, которые мы предоставляем нашим внешним партнерам благодаря нашему подходу, — это реальное, откровенное понимание того, что пациенты, живущие с этими уникальными, часто неправильно понимаемыми состояниями, испытывают каждый день. Из фокус-группы вы можете узнать о каком-либо заболевании очень мало, и мы помогаем другим понять все аспекты жизни с этим заболеванием, даже те, которые часто остаются незамеченными.

Модерация контента — Intouch 24/7

Рынок модерации контента

Ожидается, что к 2027 году рынок решений для модерации контента достигнет почти 12 миллиардов долларов США. Высокие темпы роста пользовательского контента привели к увеличению потребности в услугах модерации контента.

Что такое модерация контента?

Модерация онлайн-контента — это когда пользовательский контент просматривается и модерируется на основе правил или рекомендаций для конкретной платформы, чтобы определить, следует ли публиковать контент или нет.В этом процессе участвуют платформы для модерации контента и программное обеспечение для модерации контента, которые помогают экспертам по модерации контента выполнять свои услуги по модерированию контента.

Важность модерации контента

Большинство компаний применяют строгие правила сообщества по модерации контента в качестве стандарта для типа контента, который может быть размещен на их платформах, помогая модераторам контента определить, какой контент следует пометить или удалить. В зависимости от сложности работы многие компании обращаются к аутсорсерам по модерации контента, чтобы предоставить услуги модерации для своих онлайн-сообществ.

Модерация контента как услуга

Многие компании передали услуги модерации контента на аутсорсинг компаниям, занимающимся модерацией контента, чтобы обеспечить приоритет этой услуги. Услуги модерации сообщества очень важны для брендов, которые хотят создать позитивное, увлекательное онлайн-сообщество, не допуская негативного или сложного контента.

Типы модерации контента

Сегодня модерация контента — это не просто мониторинг и модерация платформ социальных сетей.Хотя модерация в социальных сетях по-прежнему является частью решения, полный пакет услуг включает модерацию текста, модерацию видео, модерацию изображений, модерацию рейтингов и обзоров и многие другие услуги на самых разных платформах.

Модерация контента социальных сетей

Социальная модерация — это лишь один из элементов общей стратегии обслуживания клиентов в социальных сетях. Используя инструменты модерации социальных сетей, модераторы социальных сетей проверяют контент, размещенный на определенных социальных платформах, и помечают контент, который нарушает правила сообщества.Это может включать модерацию графического контента, модерацию текстового контента, модерацию видеоконтента и многое другое.

Роль модератора контента

Роль модератора контента непроста и временами может стать очень напряженной. Одна из многих причин, по которой бренды выбирают аутсорсинг модерации контента, связана со сложностью обучения модерации контента, а также с проблемой поиска квалифицированных кандидатов.

Сложности работы по модерации контента

После того, как кандидат завершит обучение модератора контента и приступит к работе в качестве модератора контента, важно рассмотреть и расставить приоритеты в отношении психического здоровья модератора контента.В своей роли модераторы сталкиваются с потенциально негативными, оскорбительными и сложными текстами, изображениями и видео в течение всего дня, что может быть очень утомительно. Чтобы бороться с этим, модераторы контента должны иметь доступ к инициативам по оздоровлению сотрудников.

Модератор контента Wellness

Оздоровительные инициативы модераторов контента включают в себя такие услуги, как консультирование, обучение психическому здоровью, гибкие варианты смены, встроенные перерывы для психического здоровья и специальные защитники здоровья для каждой программы модерации контента.

Пользовательский контент

Потребность в услугах модерации пользовательского контента продолжает расти, и аутсорсинг модерации контента стал обычной практикой для компаний. В индустрии контакт-центров решения для модерации контента стали основной компетенцией по мере роста популярности аутсорсинга модерации контента.

 

Безопасность бренда

Модерация контента также известна как безопасность бренда. Решения для обеспечения безопасности бренда помогают брендам и их потребителям чувствовать себя в безопасности в отношении контента, окружающего их бренд в Интернете.В онлайн-мире безопасность бренда стала проблемой, поэтому так важно защитить свой бренд, отдав услуги по безопасности бренда на аутсорсинг. Будут наняты модераторы по безопасности бренда для мониторинга и модерации контента, такого как изображения, текст и видео. Модерация безопасности бренда означает, что весь вредоносный контент будет удален в соответствии с принципами сообщества вашего бренда.

Доверие и безопасность

Доверие и поддержка безопасности — это еще один способ формулировки поддержки безопасности бренда. Решения по обеспечению доверия и безопасности при обслуживании клиентов защищают ваших клиентов.Услуги доверия и безопасности включают экстренную поддержку в случаях, связанных с заявлениями о домогательствах, и срочные дела в режиме реального времени с непосредственной угрозой безопасности или имуществу. Команды обслуживания клиентов, отвечающие за доверие и безопасность, нуждаются в специальном обучении, чтобы подготовить их к этой высокоуровневой поддержке обслуживания клиентов.

Модерация контента и свобода слова

Майк Масник написал хорошую статью на эту тему в своем блоге Techdirt на прошлой неделе.

Мне особенно нравится эта часть:

Во-первых, давайте посмотрим на мир без какой-либо модерации контента.Веб-сайт, на котором нет модерации контента, но который позволяет любому размещать сообщения, будет заполнен спамом. Даже этот крошечный веб-сайт получает тысячи спам-комментариев в день. Большинство из них (к счастью) улавливаются слоями инструментов фильтрации, которые мы настроили.

Кто-нибудь станет утверждать, что фильтрация спама «противоречит принципам свободы слова»? Я надеюсь, что нет.

Но как только вы признали, что фильтровать спам — это нормально, вы уже признали, что модерация контента — это нормально — вы просто торгуетесь, сколько и где провести черту.

И действительно, пример со спамом во многом поучителен. Люди признают, что если веб-сайт переполнен спамом, это на самом деле вредно для речи в целом, потому что как можно общаться, когда все общение прерывается или его трудно найти из-за спама?

https://www.techdirt.com/2022/03/30/why-moderating-content-actually-does-more-to-support-the-principles-of-free-speech/

Я, как и многие специалисты в области технологий, предпочел бы мир, в котором практически отсутствует модерация и где вы получаете живое выражение различных мнений.Я пользуюсь Твиттером специально, чтобы слышать голоса, которых не слышу в повседневной жизни.

это помогает мне понять людей, которые мыслят иначе, чем я. Вот почему я стараюсь следовать за людьми, с которыми не согласен, и стараюсь не следовать за людьми, с которыми согласен. это открывает мой разум. я люблю это.

— Фред Уилсон (@fredwilson) 30 марта 2022 г.

Но, как отмечает Майк, вы должны модерировать онлайн-контент, чтобы создавать пространства, где можно вести беседы.

И это неизбежно приводит меня к тому же выводу, к которому Майк приходит в конце своего поста.Что нам нужно, так это гораздо больше площадок для разговоров и гораздо больше площадок с разными политиками модерации.

Другими словами, концепция свободы слова должна поддерживать разнообразие сообществ, а не все высказывания в каждом сообществе (или любом конкретном сообществе). И модерация контента делает это возможным.

https://www.techdirt.com/2022/03/30/why-moderating-content-actually-does-more-to-support-the-principles-of-free-speech/

Первые дни Твиттера здесь поучительны.Веб-сайт Twitter был ненадежным, а API позволял любому создать сторонний клиент. Так много пользователей Твиттера использовали другой пользовательский интерфейс для доступа к Твиттеру и использования Твиттера. Если бы эта архитектура сохранилась, она могла бы создать множество «клиентов» с разными политиками модерации. Так же, как у нас есть много почтовых клиентов. Это не выдержало, и поэтому у нас есть одна компания, контролирующая политику модерации всего разговора в Твиттере. Это не идеально.

Сравните это с Ethereum. У нас есть единый протокол со многими кошельками для самостоятельного хранения.Каждый кошелек самообслуживания имеет немного отличающийся пользовательский интерфейс, который позволяет пользователям получать доступ к сети Ethereum немного разными способами. Но все команды, работающие над экосистемой Ethereum, имеют общий стимул для улучшения сети, потому что все они владеют ETH. Таким образом, единый протокол с большим разнообразием сторонних клиентов становится устойчивым.

Если мы хотим свободы слова, нам нужна меньшая концентрация рыночной власти и бизнес-моделей, допускающих это. Рекламы нет.Бизнес-модели на основе токенов подходят.

От модерации контента до прослушивания в социальных сетях

Модерация контента обычно рассматривается как способ обеспечить быстрое удаление оскорбительных или незаконных сообщений с социальных платформ, но есть некоторые дополнительные причины, по которым бренды должны знать о контенте в Интернете и, возможно, взаимодействовать с ним. В этой статье от Online Moderation перечисляются три тенденции, связанные с использованием контента в 2019 году, и я хотел бы сосредоточиться только на одной из них — социальном прослушивании.

Есть две разные причины, по которым вам следует прислушиваться к социальным шумам вокруг вашего бренда или ваших продуктов:

  1. Обратная связь:  Искренние положительные и отрицательные отзывы клиентов, активно рассказывающих о ваших продуктах в Интернете, могут быть включены в программу улучшения.
  2.   Управление репутацией : Если клиенты не просто упоминают ваш бренд в социальной сети, но и активно оставляют негативные отзывы на рейтинговых платформах, вам необходимо принять участие, чтобы решить проблему или закрыть ложные отзывы.

Эта функция социального прослушивания очень похожа на процесс модерации контента, который сегодня используется в большинстве платформ социальных сетей. Это также обновляет более традиционные программы Voice of the Customer (VoC), которые многие компании используют для получения отзывов от своих клиентов.Однако, как и следовало ожидать, отзыв, который клиент дает в официальном опросе, всегда будет отличаться от отзыва, который он публикует на TripAdvisor, или комментария, который он открыто публикует в Twitter. Незапрошенная обратная связь гораздо более ценна, но требует некоторых усилий, чтобы выйти и найти комментарии.

Отслеживание отзывов и быстрое реагирование на них очень важны, особенно на сайтах отзывов. Вам нужно профессионально и быстро управлять положительными и отрицательными отзывами, чтобы клиенты были довольны.Во многих случаях можно превратить негативный комментарий в позитивный, просто хорошо справившись с ситуацией. Многие жалобы являются просто недоразумениями, но они могут создать резко негативный имидж для вашего бренда, если их не остановить и не оспорить.

Эта функция должна включать модерацию контента. Речь идет не только о блокировании оскорбительного контента, но и о реагировании на критику и обеспечении того, чтобы голос бренда был прозрачно взаимодействующим с клиентами в тех же сетях, где клиенты оставляют комментарии.Посмотрите, как позитивно вы себя чувствуете, когда видите, что бренд отеля или ресторан положительно реагирует на свою критику на TripAdvisor.

Добавить комментарий

Ваш адрес email не будет опубликован.