В исследовании спецдокладчика ОНН Дэвида Кайе проведен анализ контентной политики государств и корпораций и предложены принципы её совершенствования на основе базовых прав человека.
В конце мая 2018 г. был опубликован доклад по итогам исследования “Регулирование контента в цифровую эпоху”, проводимого под руководством Специального докладчика ООН по вопросам свободы слова Дэвида Кайе. В своем докладе, который будет представлен Совету по правам человека ООН 19 июня, Кайе предлагает рамочный подход для руководства IT-компаний по осуществлению модерации онлайн-контента с учетом универсальных прав человека.
Опираясь на Руководящие принципы предпринимательской деятельности в аспекте прав человека и другие международные документы, Специальный докладчик предлагает специальные меры, к которым должны прибегнуть компании в ходе их взаимодействия с национальными правительствами, а также советы для корректировки их собственных корпоративных стандартов. Эти меры должны способствовать увеличению прозрачности, сделать политику компаний более обоснованной, повысить значимость общественного участия, а также расширить доступ пользователей онлайн-платформ к средствам правовой защиты.
Предлагаем вашему вниманию сокращенный перевод доклада.
Еще в относительно недавнем прошлом сторонники свободного интернета, такие как Джон Перри Барлоу выступали за “мир, в котором каждый, откуда бы он ни был, может выразить свои идеалы, сколь бы непривычны они ни были, не опасаясь быть принуждённым к молчанию или единомыслию”.
Однако с тех пор ситуация кардинально изменилась. Хотя интернет и остается основным инструментом по получении доступа практически к любой информации, такой онлайн-евангелизм встречается значительно реже.
Мы столкнулись с многочисленными непредвиденными негативным эффектами, которые оказались присущи интернету. Общественность встревожена тем вредом, который время от времени причиняют отдельные публикации пользователей. Государства обеспокоены использованием интернета для координации деятельности террористов и политических оппозиционеров. Организации гражданского общества обращают внимание на участившуюся передачу государственных функций (например, по защите свободы слова и конфиденциальности граждан) неподотчетным и непрозрачным частным структурам, таким как крупные технологические компании.
К настоящему времени последняя тенденция привела к формированию своего рода “платформенного права” – использованию определенного набора корпоративных норм и стандартов предоставления услуг исключительно в рамках отдельно взятой онлайн-платформы (как, например, Facebook или Twitter). Эта тенденция может быть очень опасной, поскольку такие нормы оказываются практически не связанными с национальным законодательством, но широко применяются компаниями для выполнения государственных запросов по удалению контента или предоставлению персональных данных пользователей.
.
В своем докладе Кайе пытается дать ответы на ряд важных вопросов, касающихся регулирования контента на современных онлайн-платформах:
Какие меры ответственности должны принять на себя компании, чтобы их платформы соответствовали международным стандартам прав человека?
Какие принципы модерации контента они должны принять?
Должны ли государства регулировать модерирование контента на онлайн-платформах частных компаний? Если да, то как они должны это делать?
Следует ли нам ожидать от частных компаний того же уровня прозрачности и подотчетности в отношении возможных нарушений свободы слова, который характерен некоторым развитым государствам?
Как процессы защиты прав пользователей и обжалования несправедливых решений компаний должны выглядеть в цифровую эпоху?
.
При подготовке исследования Кайе получил детальные комментарии от представителей 21 государства и 29 негосударственных акторов (в том числе одной компании). Спецдокладчик также посетил штаб-квартиры и беседовал с представителями ряда крупных (преимущественно американских) IT-компаний.
Доклад состоит из введения и четырех глав, в которых обрисовывается специфика нынешних подходов к регулированию контента, их существенные недостатки и пути совершенствования. При этом ситуация рассматривается с двух позиций: со стороны государственных регуляторов и частных компаний. Также Спецдокладчик предлагает свои рекомендации государственным органам и компаниям, опираясь на выводы проведенного исследования.
.
.
Государственные обязательства
С точки зрения государств, ключевое значение для соблюдения прав человека, включая право на свободу слова и самовыражения, играют международные правовые документы. Одно из центральных мест среди них занимает Международный пакт о гражланских и политических правах. Статья 19 пакта устанавливает универсальные принципы свободы слова, актуальные и в цифровую эпоху. Статья 20(2) также устанавливает ограничения свободы слова, связанные с проявлениями дискриминации и призывами к вражде и насилию. К сожалению, многие государства злоупотребляют положениями данной статьи, особенно при введении антиэкстремистского законодательства, оказывающегося чрезвычайно размытым и создающим риски многочисленных злоупотреблений.
.
Ответственность компаний
В настоящее время IT-компании стали основными операторами платформ для коммуникации и обмена мнениями, получения доступа к информации, торговли и развития человеческого потенциала. Компании собирают персональные данные у миллиардов жителей Земли, многие из которых лишь ситуативно пользуются интернетом. Такие данных охватывают широкий круг аспектов жизни человека: от потребительских предпочтений до гражданской активности.
Большинство компаний официально декларируют приверженность ценностям устойчивого развития и свободного общества. Однако в действительности их политика в отношении конфиденциальности пользователей и предоставления доступа к информации вызывает многочисленные вопросы. Похоже, что обычно компании готовы соблюдать права человека только в той степени, в которой их обязывает это делать национальное законодательство.
Огромное значение в этом контексте приобретает отсутствие какого-либо универсального международного правового документа, который мог бы установить общие требования ведения бизнеса для IT-компаний, совместимые с соблюдением основных прав. Хотя в 2011 г. ООН приняла Руководящие принципы предпринимательской деятельности в аспекте прав человека, рекомендательный характер данного документа позволяет компаниям попросту игнорировать его. Тем не менее, он предусматривает набор важных принципов, которые могут быть весьма актуальны для IT-индустрии. Согласно Руководящим принципам компании должны как минимум делать следующее:
Избегать прямого нарушения прав человека или содействия таким нарушениям.
Принять обязательства на высоком уровне в отношении соблюдения прав пользователей сервисов компании.
Проводить оценку потенциального негативного влияния деятельности компании на соблюдение прав человека, в том числе путем вовлечения в диалог представителей потенциально затронутых групп.
Выработать стратегии смягчения возможных негативных последствий деятельности компании для соблюдения прав человека при работе в юрисдикциях с противоречивыми требованиями местного законодательства.
Проводить регулярный анализ усилий компании по соблюдению прав человека путем регулярных консультаций с заинтересованными сторонами и широкой общественностью.
Обеспечить функционирование надлежащих механизмов защиты прав пользователей (в том числе механизмов оперативной подачи жалоб) для того, чтобы они не чувствовали себя беспомощными.
.
.
Государства стремятся сформировать правовую среду, в рамках которой компании могут проводить модерацию контента, в то время как компании основывают доступ к своим платформам на пользовательском соглашении с условиями, устанавливающие стандарты допустимого выражения своего мнения на этих платформах.
.
Государственное регулирование
Практически все государства требуют от компаний удалять незаконный контент (детскую порнографию, призывы к насилию и т.п.). Некоторые государства даже внедряют полноценные системы онлайн-цензуры.
Рестриктивный регуляторный подход становится все более распространенным, проявляясь в законах об экстремизме, клевете, богохульстве, “языке ненависти”, “фейковых новостях” и пропаганде.
Также усилилось внимание государств к регулированию конкретных онлайн-платформ. Традиционно многие государства принимали законы, снимавшие с компаний ответственность за контент, который публикуется третьими сторонами на их платформах. Однако сейчас уже многие государства накладывают на компании обязательства по ограничению пользовательского контента с возможным применением санкций к компаниям-нарушителям (обычно – крупные штрафы для юридических лиц).
Увеличилось также число стран, которые обязывают компании осуществлять мониторинг и фильтрацию пользовательского контента, что подрывает основы прав человека в том числе и в либеральных демократиях. Одним из самых вопиющих таких случаев стало принятие в Германии закона “об охране прав в соцсетях” (NetzDG). В соответствие с этим законом социальные медиа должны в течение суток после получения запроса удалять запрещенный контент. В случае промедления на них могут быть наложены штрафы, достигающие 50 млн. евро.
Европейская комиссия уже рекомендовала странам-членам ЕС установить правовые основания для мониторинга и фильтации незаконного контента.
Несмотря на то, что опасения государств вопросами издержек всеобщей конфиденциальности и национальной безопасности понятны, принимаемые ими регуляторные меры часто оказываются избыточными и несут в себе непредвиденные риски.
Одним из наиболее значимых таких рисков, является делегирование функций государства частным компаниям, ведомыми исключительно экономическими стимулами и обладающим очень слабой подотчетностью институтам гражданского общества.
Новые требования оперативного автоматического удаления контента несут в себе большую угрозу для работников креативных индустрий, и без того ограниченных жестким режимом авторского права.
Некоторые государства требуют осуществлять удаление “нежелательного” контента на экстерриториальной основе. Это может привести к существенным ограничениям свободы слова, не привязанным к национальным границам и “суверенизированным” сегментам интернета. Удовлетворение компаниями данных требований сыграет на руку наиболее жестким онлайн-цензорам. Очевидно, что в рамках существующих международных правовых стандартов, запросы на удаление контента должны рассматриваться отдельно в каждой юрисдикции, не затрагивая иностранных граждан и не нарушая связности интернета.
Стоит также отметить, что запросы большинства государств часто и вовсе не основываются на национальном законодательстве. Вместо инициирования судебной процедуры в рамках собственной национальной юрисдикции государства запрашивают удаление контента на основе корпоративных условий предоставления услуг пользователям онлайн-платформы. Как уже было сказано выше, компании охотно удовлетворяют эти запросы, опасаясь возможных потерь прибыли.
Лишь немногие государства создали специальные органы и выработали четкие нормативные процедуры для принуждения компаний к удалению незаконного контента. Но и в этих случаях IT-компании плотно сотрудничают даже с самыми авторитарными режимами.
Государства также пытаются заставить компании осуществлять блокировку и удаление контента через не имеющие обязательной силы процедуры, большинство из которых крайне непрозрачны. В данных случаях решения компаний не подлежат рассмотрению в рамках судебной системы и других механизмов подотчетности.
.
Подход компаний к модерации контента
Каждая компания пытается соответствовать требованиям законодательства страны, в которой она ведет бизнес, что объяснимо естественным стремлением к максимизации прибыли.
Однако, в тех случаях, когда национальное законодательство систематически нарушает права человека, компании лишь усугубляют положение вещей, пытаясь выполнять требования регуляторов. К примеру, частая смысловая неопределенность антиэкстремистских законов позволяет государствам требовать от компаний удаления самых разных типов контента для продолжения нормальной работы в стране.
Международная некоммерческая ассоциация IT-компаний The Global Network Initiative, разработала дополнительные рекомендации по использованию инструментов минимизация негативного влияния репрессивного национального законодательства на конечных пользователей. Одним из таких инструментов является максимизация прозрачности. К настоящему моменту многие компании ежегодно сообщают о количестве государственных запросов, которые они получают и удовлетворяют. Однако компании крайне нерегулярно раскрывают подробную информацию о том, как они реагируют на такие запросы, особенно рассматриваемые в рамках корпоративных условий предоставления услуг, а не официальной судебной процедуры.
IT-компании требуют от пользователей соглашаться с условиями пользовательского соглашения и “стандартам сообщества”, устанавливающими правила самовыражения на их платформах. Они регулируют основные полномочия компании по разрешению возникающих споров и конфликтов, обращению с контентом и аккаунтам пользователей. Политика онлайн-платформ в отношении контента является одной из важнейших составляющих частей условий предоставления услуг. Большинство компаний не связывают такую политику с национальными правовыми стандартами (за редкими исключениями компаний в раде рестриктивных юрисдикций, вроде китайского IT-гиганта Baidu, открыто запрещающего пользователям размещение контента, противоречащего основным конституционным принципам КНР).
Экспоненциальный рост контента, создаваемого пользователями, привел к существенному усложнению условий предоставления услуг на онлайн-платформах и возникновению специальных структур внутри IT-компаний, занимающихся вопросами модерации контента. В настоящее время в разработку корпоративной политики в отношении контента вовлекаются не только юрисконсульты и специалисты в области публичной политики, но и руководители высшего звена. Компании создают специальные группы “доверия и безопасности” (занимающиеся вопросами злоупотреблений на онлайн-платформах) и даже антитеррористические отделы, тесно сотрудничающие с национальными правоохранителями.
Однако при таком росте инфраструктуры регулирования контента, корпоративные стандарты в отношении запрещенных материалов на онлайн-платформах остаются очень расплывчатыми. Это касается не только противодействия терроризму и массовым актам насилия, но и таких вопросов, как “проявления ненависти”, харрасмент, злонамеренное использование онлайн-платформ и др. Стандарты противодействия различным злоупотреблениям, принятые на крупных онлайн-платформах, часто декларативны и не имеют под собой четко определенных формальных оснований. Несмотря на усилия компаний по противодействию “языку ненависти” и подавлению меньшинств, такие акты продолжают происходить с высокой регулярностью, а основания свободы слова при этом часто оказываются подорваны. Если компании продолжат текущую политику по борьбе с такими негативными проявлениями, свобода слова может быть жестко ограничена даже в тех случаях, когда они будут неочевидны или будут отсутствовать вовсе. Чтобы избежать таких рисков, компаниям следует четко изложить формальные основания для вводимых ограничений и продемонстрировать необходимость и уместность предпринимаемых действий в отношении пользовательского контента.
Компании подчеркивают важность общего контекста при оценке применимости ряда ограничений. Тем не менее, внимание к контексту не препятствовало удалению изображений наготы, имеющих историческую, культурную или образовательную ценность; исторических и документальных отчетов о конфликтах; свидетельств военных преступлений; материалов, показывающих противодействие расистским, гомофобным или ксенофобским высказываниям. Введение автоматических систем фильтрации контента может только усугубить эту тенденцию.
В целях борьбы с нежелательным контентом некоторые компании также выдвигают требования по идентификации пользователей. Однако эффективность такой меры для предотвращения злоупотреблений в интернете неоднозначна. Стоит напомнить, что многие блогеры и онлайн-активисты выступают с анонимных позиций из-за возможной угрозе жизни при раскрытии их личности. Необходимость идентификации на ряде популярных онлайн-платформ существенно ограничивает их возможности публичного выражения своей позиции. Куда большие опасения должна вызывать возможность злонамеренных пользователей выдавать себя за других личностей (в том числе и публичных фигур), противодействию которой онлайн-платформы не уделяют достаточного внимания.
Дезинформация и пропаганда стали широко распространенными явлениями в интернете. Компании выработали множество инструментов по борьбе с ними, включая договоренности с независимыми фактчекерами, четкое соблюдение рекламной политики, мониторинг подозрительных аккаунтов, изменения в алгоритмах демонстрации и поиска контента, а также обучение пользователей, направленное на идентификацию ложной информации. Некоторые меры, особенно те, которые усиливают ограничения на содержание новостей, могут угрожать независимым и альтернативным источникам информации или сатирическому контенту. Большинство государств не считают это проблемой, полагая, что правильный подбор технологических решений позволит свести негативные последствия к минимуму.
.
В настоящий момент компании используют следующие инструменты модерирования контента:
Автоматические системы модерации (автоматическое маркирование контента, удаление и предварительная фильтрация, обработка естественно-языковых текстов и т.д.).
Маркирование контента конечными пользователями (сообществом пользователей онлайн-платформы и/или специально обученными модераторами из числа пользователей).
Маркирование контента сотрудниками компаний.
Деактивация аккаунтов нарушителей.
Рассылка уведомлений о нарушении правил или удалении пользовательского контента (часто компании или вовсе не рассылают уведомления пользователям, разместившим такой контент, или лишь информируют о факте удаления, не оставляя возможности для оспаривания этого решения).
.
Многие из вышеозначенных инструментов изначально применялись главным образом для защиты правообладателей, однако впоследствии область их применения была существенно расширена, позволив создать масштабные системы премодерации контента и цензуры.
Компании выработали практику публикации отчетов о прозрачности, которые содержат агрегированные данные о государственных запросах на удаление контента и пользовательских данных. Они демонстрирует те виды давления, с которыми сталкиваются компании. Отчеты позволяют оценить число запросов на удаление контента в рамках официальных правовых процедур, число случаев удовлетворения таких запросов и описание правовых норм, которыми обосновываются такие решения.
Однако при этом компании практически не раскрывают информации о внутренних корпоративных стандартах политики в отношении контента. На данный момент компании почти не публикуют соответствующую отчетность, хотя, очевидно, что внутренние правила обуславливают подавляющее большинство случаев удалении контента.
В то время как пользовательские соглашения обычно предоставляются на национальных языках, отчеты о прозрачности, блоги компаний и связанный с ними контент часто не доступны для пользователей, не владеющих английским языком. В связи с этим пользователи, государственные органы и гражданское общество периодически выражают недовольство непредсказуемостью условий предоставления услуг на онлайн-платформах. Отсутствие достаточного участия в сочетании с растущей общественной критикой вынуждает компании постоянно пересматривать свои правила.
.
.
Национальные законы часто не подходят для компаний, которые ищут общие нормы для своей географически и культурно разнообразной пользовательской базы. Но права человека, если они реализуются прозрачно и последовательно со значимым вкладом простых пользователей и гражданского общества, обеспечивают основу для того, чтобы государства и компании были подотчетны пользователям вне зависимости от государственных границ. Принципы прав человека могут позволить компаниям создать инклюзивную среду, которая учитывает разнообразные потребности и интересы своих пользователей при установлении предсказуемых и последовательных стандартов использования онлайн-платформ.
В рамках своего доклада Кайе предложил набор принципов, на основе которых контентная политика IT-компаний может быть приведена в соответствие универсальным правам человека.
.
Обоснованные стандарты модерации контента
При введении механизмов модерации контента компаниям следует принимать во внимание размер, структуру и отличительные особенности их онлайн-платформ. При этом они могут опираться на следующие базовые принципы:
Права человека должны стать основой условий использования онлайн-платформ (в широком спектре вопросов: от модерации контента до сбора больших пользовательских данных).
Ограничительные меры должны быть обоснованы статистическими данными и аналитическими исследованиями, опубликованными в прозрачной манере и доступными для общественной дискуссии и оспаривания их результатов.
Компаниям следует четко разграничить и объяснить, в каких случаях необходимо применять более жесткие меры ограничения контента, а в каких можно ограничиться предупреждениями или выставлением возрастных ограничений.
Компании должны предоставить четкие гарантии недискриминации при осуществлении своей политики в отношении контента.
.
Технологии осуществления модерации контента и смежных операций
Для улучшения своей политики в отношении пользовательского контента компании могут принять следующие меры:
Отвечать на государственные запросы в прозрачной манере (с публикацией детальных отчетов) с опорой на внутренние механизмы согласования, в которые могут быть вовлечены представители гражданского общества этой страны и другие заинтересованные лица.
Разработать механизмы юридической экспертизы государственных запросов с учетом рыночной специфики и особенностей национального законодательства. Эти механизмы также должны опираться на консультации с заинтересованными сторонами, которые могут прояснить влияние решений компании на соблюдение прав человека в конкретной юрисдикции.
Вовлечь сторонних экспертов и простых пользователей во внутренние оценки потенциального воздействия решений компании.
Минимизировать использование автоматических систем модерации контента в пользу вовлечения пользователей и гражданского общества.
Учитывать местную специфику и общий контекст размещения контента. Этого можно достичь только через привлечение локальных экспертов и пользователей.
Создать надежные инструменты подачи жалоб и оспаривания решений компании.
Разработать программы устранении последствий ошибочных решений с вовлечением организаций гражданского обществ и экспертных институций.
Создать условия для автономии пользователей и позволить им создавать собственную онлайн-среду. Возможность создания закрытых групп и частных сообществ, свободных от внешней модерации, должна сохраняться. Единственным ограничением в данном случае могут служить только соблюдение прав человека.
Разработать специальные корпоративные правила модерации контента, опирающиеся на четко идентифицируемые прецеденты, которые позволяют понять применимость или недопустимость отдельных инструментов в каждом конкретном случае. В идеале выработка данных правил может быть делегирована с уровня компаний на специальные координационные институты гражданского общества (например, советы социальных медиа).
В завершение доклада Спецдокладчик Кайе представляет набор рекомендаций для официальных лиц государств и руководителей IT-компаний.
.
.
1. Государствам следует отменить законы, которые криминализируют или неоправданно ограничивает свободу слова в интернете и реальной жизни.
2. Обоснованное, а не чрезмерно жесткое регулирование, учитывающее мнения заинтересованных сторон, должно способствовать увеличению прозрачности компаний и устранению внутренних практик, негативно сказывающихся на правах человека. Такое регулирование должно позволить общественности делать свободный выбор условий использования онлайн-площадок. Государства должны стремиться ограничивать контент только по решению независимого и беспристрастного судебного органа, в соответствии с четко прописанной процедурой и стандартами законности, обоснованности и легитимности. Государствам следует воздерживаться от введения непропорциональных санкций, будь то штрафы или тюремное заключение, в отношении интернет-посредников с учетом их значительного воздействия на свободу слова.
3. Государствам и межправительственным организациям следует воздерживаться от разработки законов или договоренностей, которые потребуют активного мониторинга или фильтрации контента, что несовместимо с правом на неприкосновенность частной жизни и, вероятно, приведет к полноценной цензуре.
4. Государствам следует воздерживаться от принятия таких моделей регулирования, в которых органы исполнительной власти, а не судебные инстанции, принимают решения о допустимости тех или иных способов самовыражения на онлайн-площадках. Им следует избегать делегирования ответственности частным компаниям, что позволяет ставить корпоративные стандарты выше прав человека.
5. Государствам следует публиковать подробные отчеты о прозрачности по всем запросам к интернет-посредникам и привлекать общественность к обсуждению актуальных регуляторных вопросов.
.
.
1. Компании должны признать, что универсальным глобальным стандартом обеспечения свободы выражения мнений на их платформах являются права человека, а не национальные законы или их собственные частные интересы. В связи с этим компании должны пересмотреть свои условия предоставления услуг на онлайн-платформах. Права человека предоставляяют компаниям инструменты для выработки политики, уважающей демократические нормы и противоречащей авторитарным требованиям. Руководящие принципы предпринимательской деятельности в аспекте прав человека, наряду с отраслевыми рамочными документами, разработанными организациями гражданского общества, межправительственными органами, ассоциацией The Global Network Initiative и другими заинтересованными лицами, создают основы того нового подхода, который могут перенять все IT-компании.
2. Компании должны перенять различные подходы к прозрачности на всех этапах своей деятельности: от создания общих правил до внедрения и развития “прецедентного права”, основанного на интерпретации отдельных случаев. Стандарты прозрачности должны подразумевать более активное взаимодействие с организациями, занимающимися цифровыми правами, и другими соответствующими сегментами гражданского общества. Также следует избегать скрытых договоренностей с государствами по стандартам предоставления услуг на онлайн-платформах.
3. Учитывая их влияние на социальную среду, компании должны стать подотчетны широкой общественности. Эффективные и уважающие права человека советы прессы представляют собой модель для установления минимального уровня согласованности, прозрачности и подотчетности при модерировании коммерческого контента. Привлечение гражданского общества в процессы модерирования контента, может обеспечить функционирование механизмов для апеллирования и исправления ошибочных решений без негативного влияния на экономические показатели участников рынка. Все игроки IT-индустрии, осуществляющие модерацию контента, должны внести посильный вклад в формирование отраслевых механизмов подотчетности (например, по модели советов социальных медиа).
Читайте также:
В ООН изучат проблему соблюдения прав человека в цифровую эпоху
ООН призывает Россию внести изменения в антиэкстремистское законодательство
Копирайт-цензура задавит Европу
Жалоба на необоснованные блокировки дошла до ООН
В Госдуме предложили создать «Кибер ООН»
Главное за неделю в области права.
23 декабря 2022 года Минюст включил Роскомсвободу в реестр незарегистрированных общественных объединений, выполняющих функции иностранного агента. Мы не согласны с этим решением и обжалуем его в суде.