Правовое регулирование защиты несовершеннолетних пользователей сети «Интернет» от вредоносного контента

Время на прочтение: 24 мин

НТЦ провел исследование правового регулирования защиты несовершеннолетних пользователей сети Интернет от вредоносного контента.

В процессе анализа законодательных актов были определены подходы к регулированию вредоносного контента, в том числе к определению вредоносного контента в контексте защиты детей, и выявлены основные механизмы защиты.

В качестве примеров нормативных правовых актов приведены акты ООН и ЕС. Кроме того, рассмотрены отдельные акты и проекты актов государств мира: Законопроект о безопасности в Интернете Великобритании, Законопроект о безопасности в Интернете Австралии, отдельные положения законодательства о защите детей Индии, Ирландии, Италии, Испании, США, Швеции и Китая.

В процессе исследования было выявлено, что основными механизмами защиты детей от вредоносного контента являются фильтрация и возрастная категоризация контента. Такие механизмы устанавливаются как в соответствии с законодательными требованиями некоторых государств, так и частными компаниями.

Частные компании сегодня по собственной инициативе используют следующие средства для защиты детей: 1) автоматическая модерация явно незаконного контента; 2) ручная модерация в отношении контента, который потенциально может быть вредоносным, в том числе посредством жалоб пользователей; 3) родительский контроль для конкретных пользователей; 4) фильтрация контента операторами связи; 5) создание безопасных пространств в сети Интернет, которые предназначены для детей определенных возрастных групп.

В части фильтрации контента для детей по умолчанию, в ЮАР была предложена законодательная инициатива введения такого требования к операторам связи. При этом, совершеннолетние смогли бы запрашивать доступ к порнографическим материалам, а за обход такой блокировки предлагалось ввести уголовную ответственность. Однако, согласно открытым источникам, данная инициатива в настоящий момент не продвинулась дальше этапа обсуждения проекта.

В США доступ к вредоносному контенту, в том числе, регулируется в части законодательства о персональных данных несовершеннолетних. Так, защищаются дети младше 13 лет, когда они находятся в сети. Сайты должны получить согласие родителей до обработки персональных данных детей. Таким образом, через требования защиты данных для продолжения законного использования сервиса детьми, родители должны дать согласие на обработку данных детей и дальнейшее использование детьми сервиса.

Интересен пример развития законодательства Великобритании и Австралии. В частности, тот факт, что в обеих странах в настоящий момент в законодательстве указывается, что ранее предпочтительный подход саморегулирования отрасти в настоящий момент не показал свою эффективность и необходимо законодательное регулирование защиты детей от вредоносного контента, поскольку дети по-прежнему подвержены влиянию вредоносного контента.

Законопроект о безопасности в Интернете в Великобритании вводит обязанность сервисов проявлять должную осмотрительность, при несоблюдении которой наступает ответственность сервисов. Устанавливаются обязанности использовать системы, разработанные для: 1) предотвращения доступа детей любого возраста к вредоносному контенту; 2) защиты детей в конкретных возрастных группах от контента, вредоносного для этих групп.

Также рассмотрен опыт Индии, где, в соответствии с Уведомлением от 25 февраля 2021 года, устанавливаются обязательства по информированию пользователей о запрете опубликования контента, вредоносного для детей. При опубликовании такого контента владельцы онлайн-сервисов могут запретить пользователям доступ к сервису. Устанавливаются обязательства по введению механизмов родительского контроля для ранжирования контента в соответствии с классификацией. При публикации контента сервис обязан обеспечить механизм проверки возраста для просмотра контента.

Государствами подчеркивается важность механизма жалоб пользователей на контент. В частности, в Италии установлено, что родители детей или несовершеннолетние старше 14 лет могут потребовать от сайтов, размещающих контент, удалить вредоносные материалы в течение 48 часов.  Австралийский Законопроект о безопасности в Интернете также указывает на действенность подачи жалоб на контент и обязанность сервисов удаления контента по жалобам пользователей.

Кроме того, интересен опыт КНР, где для защиты несовершеннолетних от вредоносного контента существует комплекс различных законодательных мер. Введена обязательная процедура подтверждения личности игроков в онлайн-видеоиграх. Дети, чей возраст не подходит для потребления контента в соответствии с системой маркировки, не смогут продолжать играть в такие видеоигры. Верификация возраста производится с помощью государственной системы, с помощью которой подтверждается личность пользователя.

В заключительной части исследования сделаны выводы о регулировании защиты детей от вредоносного контента в странах мира.

Оглавление

Введение

Механизмы защиты детей от вредоносного контента в сети Интернет

Фильтрация контента

Родительский контроль

Безопасные пространства в сети Интернет

Фильтрация контента в конкретных учреждениях

Возрастная категоризация

Примеры и характеристика нормативно-правовых актов о защите несовершеннолетних от вредоносного контента

Межгосударственные нормативные акты

Европейский Союз

Великобритания

Республика Индия

Республика Ирландия

Австралийский Союз

Соединенные Штаты Америки

Итальянская Республика

Королевство Испания

Швеция

Китайская Народная Республика

Заключение. Возможность применения опыта государств и межгосударственных объединений в российском законодательстве

Введение

Вредоносное воздействие на несовершеннолетних в сети Интернет может быть выражено следующим образом: 1) вредоносный контент; 2) вредоносный дизайн взаимодействия сервиса – дизайн пользовательского опыта, направленный на воздействие на желания детей, которые могут быть вредны для детей, например, многократное отправление сообщений, рекламы, некорректное; 3) вредоносное общение (контакт) – форма социального взаимодействия, примеры: запугивание, ненависть, в том числе расовая и национальная, угрозы, домогательства. В данном исследовании рассматривается вопрос правового регулирования защиты несовершеннолетних от вредоносного контента в сравнительном-правовом аспекте.

В целом, регулирование контента на законодательном уровне или же частными компаниями относится к нескольким категориям контента. Условно можно выделить следующие категории контента: 1) контент, нарушающий экономические интересы (в частности, нарушающие исключительные и личные неимущественные права в отношении результатов интеллектуальной деятельности); 2) политический контент; 3) контент, противоречащий общественной морали или нарушающий социальные нормы (в том числе целью регулирования такого контента является защита несовершеннолетних); а также 4) контент, распространение которого законодательно запрещено теми или иными государствами. Следует отметить, что в отношении первых трех категорий могут быть установлены законодательные ограничения или же ограничения частных сервисов, хотя в целом контент является не запрещенным. Напротив, контент, относящийся к последней категории, является незаконным, следовательно, и любое его распространение незаконно.

Вредоносный контент в законодательстве можно рассматривать в широком и узком контексте. В широком смысле подразумевается, что под вредоносным контентом понимается как незаконный контент, так и не запрещённый контент, который является вредным для отдельных категорий людей, например, для детей. В узком смысле вредоносный контент может на законодательном уровне означать исключительно незаконный контент. Также в узком смысле вредоносным контентом можно считать относительно законный контент, однако вредный для отдельных категорий людей.

В целом, незаконный контент урегулирован во многих странах мира и под ним понимается законодательно запрещенная информация, производство, распространение и иные действия с которой являются наказуемыми в соответствии с уголовным и административным законодательством.

Под вредоносный контентом в узком смысле понимается иная общественно-опасная информация, действия с которой не запрещены или запрещены только отдельные действия, например, распространение среди конкретных категорий граждан. При этом частные компании могут устанавливать собственные правила и критерии борьбы с таким контентом. Чаще всего ограничения устанавливаются для защиты несовершеннолетних как самой уязвимой и зависимой категории людей.

Контентная фильтрация связана с категоризацией контента, поскольку на основании категоризации контента может быть реализована система контентной фильтрации. Однако необходимо учитывать, что в различных странах действуют самостоятельные системы отнесения того или иного контента к соответствующей категории.

Исследование межгосударственного опыта регулирования защиты детей от вредоносного контента в сети Интернет содержит анализ выявленных тенденций в определении вредоносного контента в странах мира, критерии, по которым различные информационные системы, программы, сайты в сети Интернет вводят механизмы по защите детей от такого контента и законодательные обязанности, которые вводятся в этой связи.

По результатам данного исследования сформулированы выводы и приведены примеры опыта государств и межгосударственных объединений.

Механизмы защиты детей от вредоносного контента в сети Интернет

Фильтрация контента

Фильтрация вредоносного для детей контента может быть использована на разных уровнях. Возможна фильтрация контента для конкретных пользователей, то есть на частных устройствах, SIM-картах или Wi-Fi модулях, фильтрации контента на конкретных сервисах, например, созданных специально для детей, фильтрация контента в конкретных учреждениях, имеющих особую значимость для детей и где дети точно имеют доступ к сети Интернет, кроме того, возможна фильтрация контента на уровне операторов связи для всех пользователей.

Важным вопросом фильтрации контента на любом уровне является определение вредоносного контента:

  1. Только явно запрещенный законом контент, распространение которого влияет на все группы лиц;
  2. Явно запрещенный законом контент и контент, который формально может быть законным, однако распространение которого может быть вредным для отдельных категорий лиц – вредоносный контент для детей;
  3. Контент, который частный сервис признает вредоносным и/или неприемлемым в соответствии с правилами сервиса.

Фильтрация может быть ручной и автоматической. Автоматическая фильтрация обычно нацелена на незаконный контент, распространение которого явно запрещено законом, поскольку случаи удаления такого контента в большинстве случаев являются бесспорными. Контент, на который накладываются ограничения государством или же частными компаниями, чаще удаляется вручную, в том числе посредством механизма подачи жалоб пользователями сервисов. Достоинством ручной фильтрации является относительная точность, верифицируемость результатов удаления контента, а также возможность улучшения критериев для удаления. Механизмы автоматической фильтрации более действенны, однако они с большей вероятностью могут посягнуть на свободу выражения и поиска информации.

В зависимости от того, какой контент необходимо регулировать, возможны различные механизмы, меры воздействия и ответственности. При урегулировании явно запрещенного контента необходимы меры реагирования в четко установленные сроки, строгая ответственность за несоблюдение установленных правил. При этом, при регулировании контента, который формально может быть законным, однако его распространение вредно для детей, необходимо учитывать, что регулирование должно быть строго пропорционально цели регулирования – защите детей. Если ограничения на конкретные виды контента вводит частный сервис, остро стоит вопрос об ограничении права на свободу выражения и поиск информации.

Родительский контроль

Родительский контроль можно установить на уровне частных конкретных устройств посредством включения соответствующей настройки устройства. У конечных пользователей есть возможность установки родительского контроля посредством покупки услуги у оператора связи как для конкретной SIM-карты или Wi-Fi модуля.

Государственные органы и должностные лица в странах мира обращают внимание на возможности использования инструментов родительского контроля в целях ограничения доступа несовершеннолетних к порнографическому контенту.

Механизмы родительского контроля вводятся компаниями добровольно, однако в странах мира высказывались мнения о возможном введении фильтрации всего контента по умолчанию таким образом, чтобы дети могли пользоваться сервисами без опасения для своего физического и психологического здоровья. Такую фильтрацию можно осуществлять на уровне операторов связи, однако в таком случае все основные траты по такому требованию лягут на операторов связи.

О фильтрации всего контента с помощью механизмов родительского контроля по умолчанию в 2015 году заговорил бывший премьер-министр Великобритании. Дэвид Кэмерон официально высказался о намерении введения такого законодательного требования для Интернет-провайдеров, если они не примут меры по введению механизмов для ограничения доступа несовершеннолетних к вредоносному для них контенту. Тогда один из крупнейших Интернет-провайдеров в Великобритании Sky ввел в действие свой фильтр в отношении материалов порнографического характера для всех пользователей по умолчанию. Для отключения фильтра при использовании услуг Sky требуется отдельная заявка клиента. Другие Интернет-провайдеры ввели возможность установки родительского контроля лишь как опцию для конкретных лиц.

Комиссия по реформе законодательства Южно-Африканской Республики в 2019 году опубликовала для обсуждения документ Проект на обсуждение: Преступления на сексуальной основе: порнография и дети (Sexual Offences: Pornography and Children), касающийся доступа детей к порнографическим материалам. В этом документе прежде всего предложено ввести требование блокирования всего порнографического контента по умолчанию. При этом, совершеннолетние смогут запрашивать доступ к порнографическим материалам, а за обход такой блокировки предлагалось ввести уголовную ответственность. Обязательства по выполнению таких требований должны выполнять Интернет-провайдеры или производители устройства, при невыполнении этих обязательств проектом предусматривается введение уголовной ответственности. В настоящий момент нет свидетельств о продвижении настоящей инициативы.

Безопасные пространства в сети Интернет

Частные ИТ-компании создают различные специальные сервисы, которые, по их утверждениям, являются безопасными для детей. В таких сервисах действует автоматическая фильтрация всего контента для детей. В докладе ООН о последствиях COVID-19 для защиты детей в сети Интернет онлайн-платформам рекомендуется адаптация ресурсов для разных возрастных групп с фильтрацией контента и иными возможностями для детей (например, облегченный доступ к службам поддержки).

Messenger Kids — это приложение Facebook, которое работает как альтернатива приложению и платформе для обмена сообщениями, ориентированным на взрослых. Панель управления для родителей позволяет им просматривать историю чата, контакты, информацию о жалобах и блокировках, видео и фотографиях с возможностью удалить и сообщить о неприемлемом в сообщениях. YouTube Детям – сервис для детей с автоматической фильтрацией всего контента, таймером и опцией «Одобренный родителями контент», также можно выбрать возрастную категорию детей для соответствующего ранжирования контента.

Некоторые сервисы позволяют создавать специальные аккаунты для детей. Google позволяет создать отдельный аккаунт для ребенка. Такой аккаунт позволяет детям использовать все продукты Google, а родителям контролировать любые действия детей.

Помимо этого, надлежащие системы фильтрации контента используются в приложениях и сайтах, созданных для детей с образовательными целями.

Такие безопасные пространства в сети Интернет могут вноситься в особые белые списки ресурсов, безопасных для детей.

Фильтрация контента в конкретных учреждениях

Для детей особую значимость имеет фильтрация контента в учреждениях, в которых дети постоянно имеют доступ к сети Интернет. Чаще всего такими учреждениями являются школы, детские сады и общественные библиотеки.

Во Франции министерство народного образования запустило автоматизированную и централизованную фильтрацию контента в школах на основании двух «чёрных списков»: в первом списке – порнографические ресурсы, во втором – расистские и антисемитские сайты. Он составлен в соответствии с общеевропейским Проектом по развитию безопасного интернета (Safer Internet Action Plan).

Закон о защите детей в Интернете 2011 года США (далее – CIPA) создан для защиты детей от опасного поведения в сети. Для фильтрации в школах и библиотеках используются коммерческие фильтрующие программные пакеты, а в некоторых штатах — блокирование IP-адресов на уровне провайдера.

В 2021 году в Венгрии был принят Законопроект «О более строгих мерах в отношении правонарушителей-педофилов» и внесении поправок в некоторые законы в целях защиты детей. В частности, законопроект содержит положения о запрете распространения порнографии, контента, изображающего сексуальность и пропаганду гомосексуализма, изменения пола или иные «отклонения от гендерной идентичности» среди несовершеннолетних. Положения затрагивают любой контент, рекламу, а также устанавливают специальные правила в отношении запрета распространения такого контента в школах. Представитель венгерского правительства уточнил, что дети могут неправильно понять указанный контент и на них может быть оказано вредное влияние.

Возрастная категоризация

Законодателей по всему миру с конца 1990-х годов занимала попытка разработать системы классификации для маркировки контента в сети Интернет таким способом, чтобы это позволило родителям лучше судить о пригодности контента для детей.

Введение возрастной классификации контента необходимо для того, чтобы несовершеннолетние пользователи и их родители могли получить информацию о потенциально потребляемом контенте. Помимо информационной функции, возрастная классификация контента может быть полезна для использования механизмов фильтрации контента на конкретных ресурсах для детей. Например, контент может быть отфильтрован на основании присвоенной маркировки в соответствии с введенным возрастом конкретного пользователя.

В большинстве стран мира введены возрастные категоризации контента. Рейтинговые системы разных стран различаются между собой достаточно сильно. Рейтинг может присваиваться негосударственными организациями (США, Германия) или санкционироваться государством в качестве официального рейтинга для фильмов, видеоигр или иного контента. Помимо прочего, с учетом культурных особенностей разных стран разные виды контента могут быть отнесены к разным возрастным категориям.

Системы категоризации и классификации контента могут быть использовать различным образом. Возрастная категоризация в основном имеет рекомендательный характер как для потребителей, так и для распространителей. Например, рекомендательный характер носят различные системы категоризации в США.

Однако в некоторых странах сервисы, которые доступны детям или предназначены для детей, могут быть обязаны наносить заметную маркировку на контент без ответственности за его распространение при наличии такого знака. Во многих европейских странах обязательная классификация установлена для фильмов, в том числе размещаемых на сервисах потокового видео, и/или видеоигр (Ирландия, Финляндия и многие другие). В некоторых странах, отдельные категории могут присваиваться для запрета распространения контента. Например, в Австралии помимо маркировки, наносимой в информационных целях, существует две категории, при присвоении которых контент запрещен к распространению на территории Австралии. В Китае маркировка должна носить предупредительный характер, поэтому должен быть реализован механизм, при котором после предупреждающего баннера можно было бы отказаться от просмотра контента.

Примеры и характеристика нормативно-правовых актов о защите несовершеннолетних от вредоносного контента

Межгосударственные нормативные акты

Конвенция ООН о правах ребенка от 20 ноября 1989 года указывает на важность свободы выражения ребенком собственных взглядов, которая включает в себя поиск, получение и распространение информации и идей любого рода. Осуществление этого права может ограничиваться в целях охраны государственной безопасности, общественного порядка, здоровья и/или нравственности населения. В то же время подчеркивается, что «главная ответственность за воспитание и развитие ребенка лежит на родителях». Ответственность родителей за воспитание детей не подразумевает использование мер, не связанных с законодательным регулированием.

В ряде международно-правовых документов подчеркиваются преимущества совместного регулирования, при котором реализуются саморегулирование отрасли и образование в сфере защиты детей и устанавливаются границы фильтрования и цензурирования. Совместное регулирование рассматривается как термин для способов регулирования, предназначенных для достижения общественных целей и содержащих элементы саморегулирования и традиционного правового регулирования. Кодекс практики, руководящие принципы, принятые отраслью, и процесс разрешения жалоб, включающий санкции, рассматриваются в качестве основных элементов саморегулирования.

Европейский Союз

Директива Европейского Парламента и Совета Европейского Союза 2010/13/ЕС от 10 марта 2010 г. «О координации некоторых законодательных, регламентарных и административных положений, действующих в Государствах — членах ЕС, относительно оказания аудиовизуальных медиа-услуг (Директива об аудиовизуальных медиа-услугах)» была разработана для обеспечения минимальных стандартов для трансграничных вещательных компаний. Директива об аудиовизуальных медиа-услугах была пересмотрена в 2018 году и ввела новые меры по защите детей от контента, предоставляемого платформами для обмена видео, который «может нанести ущерб их физическому, умственному или моральному развитию». Документ относится к сервисам, которые позволяют показать неограниченному кругу лиц созданное пользователями видео, которое не проходит модерацию и распространяется в коммерческих целях.

Проект постановления Европейского парламента и Совета о едином рынке цифровых услуг (Закон о цифровых услугах) и поправок к Директиве 2000/31/EC, опубликованный в декабре 2020 года, предусматривает конкретные обязательства для крупных платформ по устранению значительных рисков для несовершеннолетних. Закон о цифровых услугах содержит правила для онлайн-платформ, которыми ежедневно пользуются миллионы европейцев. В соответствии с Законом о цифровых услугах обязательные для ЕС правила будут применяться ко всем видам цифровых услуг. Предложено ввести новые процедуры для более быстрого удаления нежелательного контента, а также комплексную защиту основных прав пользователей в Интернете. Закон должен применяться к онлайн-сервисам в той части, в которой иные акты (например, Директива об аудиовизуальных медиа-услугах) не содержат более конкретных применимых положений. Закон направлен на принятие компаниями мер по защите пользователей и использование компаниями эффективных механизмов для выявления нежелательного контента.

Важно отметить, что на уровне государств ЕС отмечается, что сложно договориться о том, какой контент является вредоносным, но не незаконным. По сути такой контент находится в серой зоне. Например, Правительство Франции отмечает, что исходя из исторических и культурных различий государств-членов ЕС понятие вредоносного контента может сильно разниться, поэтому трудно выполнить условия для наднациональной гармонизации положений относительно такого контента.

Саморегулирование признано одним из инструментов стратегии Европейского Союза по созданию безопасного Интернета для детей. Например, существует Союз для защиты несовершеннолетних онлайн. Целью Союза является ограничение использования вредоносного контента, вредного поведения и вредных контактов, включая запугивание и домогательство. Коалиция по улучшению Интернета для детей – добровольный союз компаний для реагирования на проблемы защите детей в сети Интернет. Компании Коалиции обязались принять действенные и активные меры для защиты детей, среди них Apple, Facebook, Google, LG Electronics, Microsoft и другие крупные ИТ-компании.

Принципы безопасности социальных сетей являются саморегулируемым соглашением. Принципы подписали владельцы основных социальных сетей в ЕС для осуществления мер по обеспечению безопасности несовершеннолетних. Среди принципов можно назвать повышение осведомленности, идентификация пользователей и исключение пользователей, которым нельзя использовать сервис, предотвращение повторной регистрации таких пользователей, родительский контроль, предоставление возможности категоризации контента, возможность подачи жалоб на контент и др.

Европейская стратегия для безопасного использования мобильных телефонов детьми и подростками – саморегулируемое соглашение операторов связи ЕС для защиты детей в сети Интернет. Подписавшие соглашение компании должны внедрять механизмы для контроля доступа к контенту, не приемлемому для несовершеннолетних.

На основе принципов вышеуказанного соглашения были созданы национальные Кодексы поведения отдельных стран ЕС, к которым могут присоединиться компании, ведущие деятельность в отдельных странах (Германия, Австрия, Франция и др.). В рамках подобных Кодексов поведения присоединившиеся компании берут на себя обязательства по предотвращению доступа детей к вредоносному контенту. Например, в Германии Кодекс поведения делит контент на три типа: 1) полностью запрещенный контент – обязательство обеспечить сами или обязать поставщиков контента отсутствие запрещенного контента в сети Интернет; 2) порнографический контент – обязательство идентификации или аутентификации пользователей для обеспечения просмотра контента только совершеннолетними; 3) иной вредный контент – обязательство по внедрению возможностей родительского контроля при использовании мобильной связи детьми.

Текущий подход к саморегулированию социальных сетей интересен, поскольку демонстрирует, что платформы могут быть частью решения наблюдаемых проблем. Они придумали разнообразные и гибкие решения, например, удаление, меньшее воздействие, напоминание об общих правилах, образование и поддержка жертв.

Великобритания

Ранее Правительство Великобритании рассматривало предпочтительным подходом к регулированию контента для защиты детей совместное регулирование и саморегулирование отрасли. В отчете о стратегии онлайн-безопасности «Зеленая книга стратегии онлайн-безопасности» Правительство указывало, что необходимо обратить внимание не только на незаконный контент, но и на вредный контент, который не является запрещенным к распространению на территории Великобритании. Подчеркивалось, что от компаний требуются активные действия, в том числе по отслеживанию злоупотреблений на Интернет-ресурсах, разработке механизмов реагирования, автоматизации с помощью технологических средств и обмену опытом. Также отдельно отмечено, что сервисы в сети Интернет добились прогресса в удалении запрещенного контента, однако необходимо использовать существующие для этого средства для уменьшения вредоносного контента.

Законопроект о безопасности в Интернете (Online Safety Bill) изменяет существующую модель совместного регулирования. Государственное регулирование рассматривается как основное средство обеспечения безопасности в сети Интернет, тогда как саморегулирование выступает в качестве дополнительной защиты пользователей. Законопроект вводит так называемую обязанность сервисов проявлять осмотрительность, при невыполнении которой наступает ответственность сервисов.

Предлагается распространить действия будущего закона на два типа сервисов: 1) посредники в сети Интернет, которые делают доступным для пользователей контент, произведенный, загруженный или распространенный другими пользователями; 2) поисковые системы. Положения должны действовать в отношении указанных субъектов, которые связаны с Великобританией, вне зависимости от места регистрации юридических лиц посредников или поисковых систем. Связанность с Великобританией определяется через возможность использования сервиса на территории Великобритании.

На сервисы, доступ к которым могут получить дети, возложены дополнительные обязанности: 1) по проведению анализа влияния вредоносного контента на детей; 2) по защите детей, выражающиеся в ограничении доступа к вредоносному контенту и снижении рисков причинения вреда детям разных возрастных групп; 3) по ведению отчетности и возмещению ущерба.

При оценке рисков необходимо учитывать: 1) пользовательскую базу; 2) виды типичного контента; 3) типы рисков; 4) характер и серьезность вреда каждого вида контента; 5) возможность пользователей искать друг друга и общаться; 6) технические возможности сервиса по снижению рисков.

Кроме того, устанавливается обязанность удаления контента при наличии соответствующего запроса от государственного органа, а также обеспечение и облегчение возможности обжалования пользователями контента.

Контент, наносящий вред детям может означать:

  1. Первоочередный приоритетный контент, наносящий вред детям, виды которого определяются в акте государственного секретаря;
  2. Контент, который иными подзаконными актами отнесен к приоритетному контенту, наносящему вред детям,
  3. Контент, признаваемый наносящим вред детям, в соответствии с нижеуказанными критериями.

Если у владельца сервиса есть разумные основания полагать, что характер контента прямо или косвенно рискует оказать значительное неблагоприятное физическое или психологическое воздействие на ребенка с обычной чувствительностью, то такой контент считается вредным для детей. Такое воздействие контента может включать: 1) возникновение серьезного беспокойства и страха; 2) долгосрочные состояния, такие как депрессия и стресс; 3) психические заболевания, как краткосрочные, так и постоянные.

Контент может быть признан вредным для детей из-за способа его распространения, даже если характер контента не является вредным, например, повторная отправка контента пользователю может быть признана запугиванием или преследованием.

При определении того, является ли контент вредным для детей, владелец сервиса также должен учитывать, сколько пользователей может столкнуться с контентом и насколько легко, быстро и широко контент может быть распространен.

Если контент обращен к конкретному несовершеннолетнему, то следует оценивать его вредное влияние применительно к этому конкретному ребенку.

Контент причиняет вред, когда может заставить ребенка действовать таким образом, чтобы увеличить вероятность неблагоприятного физического или психологического воздействия на этого ребенка (например, контент, пропагандирующий рискованное или агрессивное поведение).

Устанавливаются обязанности использовать системы, разработанные для: 1) предотвращения доступа детей любого возраста к первоочередно контенту, наносящему вред детям; (б) защиты детей в конкретных возрастных группах.

Нарушение положений законопроекта предлагается карать штрафом до 18 миллионов фунтов или до 10% от выручки компании от деятельности по всему миру.

Международная общественная организация Европейские цифровые права (EDRi) и некоммерческая организация Access Now высказывают опасения относительно последствий, к которым может привести подобное регулирование. Они указывают на то, что меры по фильтрации контента могут привести к общему мониторингу всей информации, передаваемой на онлайн-платформах. Такой мониторинг может привести к незаконному ограничению свободы выражения мнений с учетом того, что концепция «вреда в сети» не отвечает требованию правовой определенности и является расплывчатым понятием, которое люди могут толковать по-разному. Кроме того, они указывают на то, что при угрозе высоких штрафов, предлагаемых законопроектом, онлайн-сервисы предпочтут удалять любой спорный контент из соображений осторожности. Это может привести к излишней цензуре и ограничения свободы выражения.

Что касается классификации контента, Британский совет по классификации фильмов не уполномочен классифицировать контент, распространяемый в сети Интернет.

Республика Индия

Министерство электроники и информационных технологий Республики Индия опубликовало Уведомление от 25 февраля 2021 года, частью которого являются правила «Руководство для посредников» и «Кодекс этики цифровых медиа». 26 мая 2021 года правила начали действовать на территории Индии для крупных социальных сетей.

В правилах указывается, что посредники обязаны проинформировать пользователей посредством правил использования сервиса и иных документов, принимаемых пользователями, что они не должны размещать информацию, которая является вредоносной для детей. При этом, стоит отметить, что вредоносный для детей контент выделен отдельно от запрещенного контента, например, от порнографического, непристойного, оскорбляющего по дискриминационным признакам, поощряющего или связанного с преступлениями и др. Также посредник обязан уведомлять пользователей о правилах использования не реже раза в год, в том числе о том, что в случае несоблюдения правил использования сервис имеет право прекратить использования пользователем сервиса.

В соответствии с правилами, на информационных посредников, а именно на крупные социальные сети, накладываются обязательства фильтрации контента, удалению контента при жалобах пользователей и др.

Обязательства крупных социальных сетей по установлению механизмов автоматической фильтрации относятся только к незаконному контенту, такому как изображение изнасилованию, сексуальных действий с детьми и др. Таким образом, эти обязательства не относятся к вредоносному контенту для детей.

Крупные социальные сети обязаны создать механизм рассмотрения жалоб пользователей. Компании обяжут публиковать ежемесячный отчет о своей модерационной деятельности. Официальные «сотрудники по рассмотрению жалоб» должны будут принимать жалобы в течение 24 часов и выносить решение по ним в течение 15 дней.

Кроме того, Индия требует от платформ потокового видео, например, таких как Netflix и Amazon Prime Video, классифицировать контент по пяти категориям в зависимости от возраста пользователей: для всех возрастов, старше 7, старше 13, старше 16, только для взрослых. Указаны критерии для классификации: затрагиваемые темы, насилие, нагота, пол, язык, наркотики и психоактивные вещества, ужасы. Маркировка должны быть заметной. Кроме того, у пользователя должна быть возможность принять решение о просмотре на основе маркировки.

Устанавливаются обязательства по обеспечению действия механизмов родительского контроля для контента в соответствии с классификацией. При публикации контента категории для взрослых обязан обеспечить механизм проверки возраста для просмотра контента. При этом, способы выполнения данного правила не указаны.

Республика Ирландия

Законопроект о безопасности и регулировании медиа призван заменить саморегулирование государственным регулированием и защитить детей в сети Интернет. В настоящий момент проводится предварительная юридическая оценка законопроекта.

В предлагаемом законопроекте изложены ожидания в отношении онлайн-сервисов в виде обязательных требований к безопасности пользователей, за несоблюдение которых регулятор может наложить санкции.

«Вредоносный онлайн-контент» включает: 1) материалы, распространение которых является уголовным преступлением в соответствии с законодательством Ирландии; 2) запугивание, угрозы, унижение или преследование лица; 3) контент, который может способствовать расстройству пищевого поведения; 4) контент, который поощряет или продвигает членовредительство или самоубийство или дает инструкции о том, как это сделать, не имеющий, при этом, философской, медицинской и политической ценности.

Ирландская комиссия по правам человека и равенству (IHREC) раскритиковала аспекты предложенного законодательства о безопасности в Интернете. Комиссия заявляет, что нынешний подход в проекте закона к определению вредоносного онлайн-контента «расплывчатый и открытый, а также не имеет правовой определенности». Также подчеркивается, в настоящее время в проекте отсутствуют подробности о роли и функциях регулятора, который будет контролировать исполнение закона.

Австралийский Союз

Австралийский Законопроект о безопасности в Интернете 2021 года внесен в парламент 24 февраля 2021 года и в настоящее время находится на рассмотрении Сената. Проектом предлагается создать систему обжалования нежелательного контента в сети Интернет.

Среди основных положений законопроекта можно выделить борьбу с оскорблениями, преследованиями, угрозами, унижением и другими видами кибербуллинга, особенно в отношении детей. Понятие вредоносного контента в законопроекте дано крайне широко и включает в себя дезинформацию, пропаганду терроризма, пропаганду суицида и другой вредный контент.

В пояснительной записке к законопроекту указывается, что для безопасности пользователей в сети Интернет необходимы активные действия частных компаний по предотвращению вреда в сети Интернет через установление законной обязанности. В связи с этим, отмечается, что саморегулирование отрасли показало себя как неэффективное. Самостоятельные действия платформ по урегулированию своей деятельности оказались недостаточными из-за несогласованности между платформами, различными механизмами защиты пользователей, в том числе различными подходами к пониманию вредоносного контента. Также существенным недостатком является недостаточная подотчетность, поскольку компании несут ответственность только в рамках созданных ими же механизмов саморегулирования. Таким образом, отсутствие независимого надзора и обязательного наступления ответственности, называются основными недостатками саморегулирования отрасли.

В соответствии с законопроектом, жалобы можно подавать в специально созданный орган – Комиссару по безопасности в интернете (eSafety Commissioner). Комиссар уполномочен расследовать нарушения, направлять уведомления об удалении на основании поданных жалоб 1) операторам связи; 2) хостинг-провайдерам; 3) поисковой системе; 4) владельцу магазина мобильных приложений. На удаление материала дается 24 часа вместо установленных на настоящий момент 48 часов.

При принятии решения о том, будет ли контент считаться вредоносным, необходимо принимать во внимание общепринятые стандарты морали, порядочности и приличия, художественную ценность и общий характер контента.

В открытом письме Министру по коммуникациям Австралии общественная организация Глобальная сетевая инициатива (Global Network Initiative), подчеркивая необходимость защиты пользователей в сети Интернет, указывает на возможные проблемы законопроекта. Например, сокращенные временные рамки, установленные для удаления контента онлайн-сервисами, вызывают обеспокоенность общественности с точки зрения широкой применимости законопроекта и потенциала чрезмерного удаления контента, в том числе не вредоносного и не запрещенного контента. Использование таких терминов, как «разумные основания», «разумное лицо» и «оскорбительный контент» для описания категорий контента могут привести к чрезмерной субъективности и непоследовательности.

В части возрастной категоризации, в Австралии существует официальная система маркировки публикаций, фильмов и видеоигр, где решение по отнесению контента к той или иной категории принимает официальный орган. Например, есть две группы «18+»: первую «R18+» присваивают просто материалам для взрослых, а вторую «X18+» — материалам явно порнографического характера. Кроме того, существует категория «RC» («Refused Classification») — по сути, публикации, фильмы и видео, содержащие запрещенную законом информацию. В целом, система категоризации рекомендательная, однако в отношении категорий «RC» и «X18+» установлены законодательные ограничения. Контент порнографического характера доступны для продажи или проката совершеннолетним только на территории столицы Австралии и Северной территории. Контент, отнесенный к категории «RC», запрещен к продаже, распространению и импорту.

Соединенные Штаты Америки

Федеральный Закон о защите конфиденциальности детей в Интернете 1998 года помогает защитить детей младше 13 лет, когда они находятся в сети, требуя, чтобы веб-сайты излагали свою политику конфиденциальности и получали верифицируемое согласие родителей до сбора или использования персональных данных детей, таких как имя, адрес, номер телефона или номер социального страхования. Верифицируемость в контексте закона означает, что с учетом технических возможностей должны быть предприняты разумные усилия для запроса согласия родителей на будущий сбор и дальнейшую обработку персональных данных детей. Таким образом, через законодательные требования в сфере защиты данных для продолжения законного использования сервиса детьми, родители должны дать согласие на обработку данных детей и дальнейшее использование детьми сервиса.

Цель упомянутого выше CIPA – защитить детей от опасного поведения в сети. Школы или библиотеки должны иметь политику безопасного использования Интернета, которая фильтрует или предотвращает доступ к вредным или представляющим угрозу для детей материалам. Это дает им право на получение скидок на телекоммуникационные услуги и доступ в сеть Интернет через Программу универсальных услуг для школ и библиотек, также известную как E-rate. Школы, подпадающие под действие CIPA, имеют два дополнительных сертификационных требования: 1) их политика безопасности в Интернете должна включать мониторинг онлайн-активности несовершеннолетних; и 2) они должны обеспечивать обучение несовершеннолетних надлежащему поведению в сети Интернет.

Итальянская Республика

В мае 2017 года итальянский парламент утвердил Закон № 71/17 от 29 мая 2017 года, направленный на борьбу с запугиванием детей в сети Интернет после нескольких громких дел, в которых жертвы совершали самоубийство. Родители детей или несовершеннолетние старше 14 лет могут потребовать от сайтов, размещающих контент, удалить вредоносные материалы в течение 48 часов. Если никаких действий не предпринимается, жертвы могут подать жалобу соответствующему регулятору, который может приказать заблокировать или удалить запрещенные материалы. Этот закон вызвал обеспокоенность критиков, которые заявили, что он позволяет злоупотреблять возможностью принудительно удалять материалы с сайтов социальных сетей.

Королевство Испания

В Законе 34/2002 от 11 июля «Об услугах информационного сообщества и электронной торговле» рассматриваются вопросы обеспечения безопасности несовершеннолетних в сети Интернет. Закон действует в отношении интернет-магазинов, электронных СМИ, провайдеров хостинга, поисковых систем, сервисов услуги «видео по запросу» и т. п.

Для тех случаев, когда лицо, предоставляющее услугу с незаконным контентом, зарегистрировано за пределами Испании, но в одном из государств ЕС или Европейского экономического пространства (ЕЭП состоит из стран ЕС и Исландии, Лихтенштейна и Норвегии), описываются процедуры взаимодействия с этими странами для принятия ограничительных мер. Если же услуга, содержащая нарушения, оказывается из-за пределов ЕС/ЕЭП, то на основании решения компетентного органа допускается возможность закрытия доступа к ней из Испании.

Статья 7 Генерального закона 7/2010 от 31 марта об аудиовизуальной коммуникации, посвященная защите прав несовершеннолетних, устанавливает ограничения на трансляцию информации, которая может нанести серьезный вред физическому, ментальному или моральному развитию детей. Это касается сцен порнографии и насилия, потенциально вредной рекламы (в частности, призывающей к пластической хирургии, похудению) и др. Указанная статья предусматривает обязательную маркировку не предназначенной для несовершеннолетних теле-, аудиопродукции.

Швеция

В 2020 году в Швеции была ратифицирована Конвенция ООН о правах ребенка от 20 ноября 1989 года, которая, как было указано выше, предусматривает права детей на свободу выражение с ограничениями в целях защиты детей. В связи с этим, три шведских органа власти, отвечающие за защиту детей и молодежи и укрепление их прав, опубликовали руководство «Права детей и молодежи в отношении цифровых платформ» для создателей и распространителей онлайн-контента. Руководство в первую очередь адресовано цифровым платформам, используемым детьми и молодежью, например, социальными сетями и играми.

Шведские регуляторы указывают на важность самоуправления в данной сфере, например, кодексы поведения для противодействия ненависти в сети Интернет или для маркетинговых коммуникаций, нацеленных на детей и молодежь.

Регуляторы подчеркивают, что несмотря на то, что положения, касающиеся маркировки возрастных ограничений для телевидения, не применяются к отношениям в сети Интернет, распространителям онлайн-контента, с которым могут контактировать дети, необходимо учитывать эти правила, поскольку на вредоносность контента, по мнению регулятора, влияет возраст и степень зрелости детей. Отмечается, что при создании цифровой платформы необходимо учитывать возможность использования платформы детьми и молодыми людьми и оценивать связанные с этим риски.

В настоящий момент, никаких санкций за невыполнение правил руководства регуляторов в законодательстве Швеции не предусмотрено.

Китайская Народная Республика

Законом КНР о защите несовершеннолетних в ст. 44 установлено, что при распространении контента, который может повлиять на физическое или психологическое здоровье несовершеннолетних, должны быть заметные категориальные предупреждения перед показом контента. Ст. 34 предусматривает уголовную ответственность за продажу, аренду и/или распространение среди несовершеннолетних материалов, которые являются «вредоносными для несовершеннолетних». Например, указывается аудиовизуальная продукция, электронные публикации и сетевая информация о порнографии, насилие, убийства, терроризм и азартные игры.

Также Закон отдельно перечисляет виды учреждений, которые обязаны установить специальное программное обеспечение для защиты несовершеннолетних в сети Интернет: школы, общины, библиотеки, культурные центры, центры молодежной активности и другие подобные места.

В 2004 году была внедрена система фильтрации контента «Золотой щит» (по-другому – «Великий китайский фаервол»). «Золотой щит» создан для блокирования доступа пользователей из материкового Китая к некоторым интернет-ресурсам, расположенным на серверах за пределами страны. Многие мировые социальные сети внесены в него под предлогом не подконтрольности пекинским властям, вследствие чего на ресурсах может быть размещен вредный и противоправный контент. Помимо этого, по согласованию с правительством в 2004 году был создан Китайский центр жалоб на незаконные материалы в Интернете. Одной из целей деятельности центра декларируется защита несовершеннолетних от влияния незаконной и вредной информации.

С сентября 2020 года была введена обязательная процедура подтверждения личности игроков в онлайн-видеоиграх. Подтверждение личности происходит с использованием государственной системы подтверждения личности. Данная мера была реализована для ограничения времени, которое несовершеннолетние граждане Китая (возраст совершеннолетия – 18 лет) проводят за онлайн-видеоиграми. Если после прохождения обязательной процедуры подтверждения личности будет выявлено, что игрок не достиг возраста 18 лет, то он сможет играть не более полутора часов в будние дни и не более трёх часов в выходные. Идея осуществлена в рамках реализации Правил по борьбе с зависимостью несовершеннолетних граждан Китая от видеоигр, опубликованных 5 ноября 2019 года Государственным управлением печати и массовых коммуникаций КНР (SAPP). Помимо ограничения времени, правила введены для целей ограничения доступа к нежелательным играм с вредным контентом. Если игра не предназначена для несовершеннолетних лиц и получила соответствующий рейтинг, идентифицированные игроки не смогут получить к ней доступ.

1 июня 2021 года вступили в силу поправки к Закону о защите несовершеннолетних, усиливающие защиту несовершеннолетних онлайн. Изменения касаются установления обязанности для поставщиков услуг в сети Интернет по внедрению средств для ограничения времени нахождения на Интернет-ресурсах. Услуги, предоставляемые в сети Интернет, не должны вызывать зависимость или иным образом наносить вред детям. Опекуны и родители несовершеннолетних и дети, которые подверглись запугиванию, издевательствам или увидели вредный контент, имеют право обращения к поставщикам услуг в сети Интернет для принятия таких мер, как удаление, блокировка или отключение ссылок. Поставщики услуг обязаны предпринять все необходимые меры для прекращения издевательств и/или соответствующей вредной информации.

Заключение. Возможность применения опыта государств и межгосударственных объединений в российском законодательстве

Проведенный анализ правовой защиты несовершеннолетних от вредоносного контента в странах мира выявил отсутствие единообразного подхода к определению вредоносного контента и к правовому регулированию ограничения распространения такого контента в государствах и межгосударственных объединениях мира.

По результатам исследования опыта государств мира было выявлено, что защита детей и, в частности, защита от вредоносного для детей контента является важным трендом развития законодательства стран мира. Необходимость регулирования данной сферы, по мнению законодателей государств мира, вызвана в первую очередь тем, что работа детей в онлайн-пространстве оказалась в серой зоне, оставляя в значительной степени неопределенным потребление вредоносного контента и его влияния на детей.

Выявлено, что основными механизмами защиты детей от вредоносного контента являются фильтрация контента и возрастная категоризация контента. Такие механизмы устанавливаются как в соответствии с законодательными требованиями некоторых государств, так и частными компаниями. При расширении действия механизмов, используемых для борьбы с незаконным контентом (например, автоматическая/ручная фильтрация), необходимо тщательно взвешивать баланс интересов общественности, в том числе детей, и свободы выражения.

В части фильтрации контента для детей по умолчанию в ЮАР была предложена законодательная инициатива введения такого требования к операторам связи. При этом, совершеннолетние смогли бы запрашивать доступ к порнографическим материалам, а за обход такой блокировки предлагалось ввести уголовную ответственность. Однако, согласно открытым источникам, данная инициатива в настоящий момент не продвинулась дальше этапа обсуждения проекта.

Законодательно регулирование контента, вредоносного исключительно для детей, посредством механизмов фильтрации в первую очередь внедряется в государствах мира на уровне конкретных учреждений, которые имеют особое значение для детей, в частности школы и/или общественные библиотеки (Франция, США). Закон № 436-ФЗ содержит похожее требование в ч. 1 ст. 14 о применении административных и организационных мер, технических, программно-аппаратных средств защиты детей от информации, причиняющей вред их здоровью и/или развитию, в местах доступа к сети Интернет.

Парадигма саморегулирования в части защиты детей от вредоносного контента уступает государственному регулированию указанного объекта. Государства признают, что саморегулирование и совместное регулирование не оправдало себя и необходимо вводить меры на законодательном уровне.

Ранее появлялись законодательные акты, которые регулируют только незаконный контент, на настоящий момент, регулирование касается и контента, который не является незаконным, но может быть вредным для конкретных групп населения, в том числе, для детей. Это связанно с тем, что в сети Интернет дети могут бесконтрольно потреблять огромное количество контента. Как следствие, дети могут быть подвержены вредному влиянию контента психологически и/или физически.

В США доступ к вредоносному контенту регулируется в части законодательства о персональных данных несовершеннолетних. Федеральный Закон о защите конфиденциальности детей в Интернете 1998 года помогает защитить детей младше 13 лет, когда они находятся в сети, требуя, чтобы веб-сайты излагали свою политику конфиденциальности и получали согласие родителей до сбора или использования персональных данных детей. Таким образом, через законодательные требования в сфере защиты данных для продолжения законного использования сервиса детьми, родители должны дать согласие на обработку данных детей и дальнейшее использование детьми сервиса.

Широкое распространение получило регулирование вредоносного контента для детей в форме саморегулирования отрасли. В том числе ООН подчеркивает преимущества саморегулирования. В основном, примеры саморегулирования относятся к Европейскому Союзу. Принципы саморегулирования принимаются в форме добровольных соглашений, в частности кодексов поведения и этики, к которым присоединяются крупные игроки рынка, такие как операторы связи, владельцы крупных социальных сетей, поисковых систем и др. Среди принципов можно назвать повышение осведомленности, идентификация и ограничение доступа несовершеннолетних пользователей, предотвращение повторной регистрации таких пользователей, родительский контроль, предоставление возможности категоризации контента, возможность подачи жалоб на контент. Текущий подход к саморегулированию социальных сетей интересен, поскольку демонстрирует, что платформы могут быть частью решения наблюдаемых проблем.

Парадигма саморегулирования в части защиты детей от вредоносного контента уступает государственному регулированию указанного объекта. Кроме того, ранее существовали законодательные акты, которые регулируют только незаконный контент, на настоящий момент, регулирование касается и контента, который не является незаконным, но может быть вредным для конкретных групп населения, в том числе, для детей. В связи с этим, интересен пример развития законодательства Великобритании и Австралии. В частности, тот факт, что в обеих странах в настоящий момент в законодательстве указывается, что ранее предпочтительный подход саморегулирования отрасти в настоящий момент не показал свою эффективность и необходимо законодательное регулирование защиты детей от вредоносного контента.

Законопроект о безопасности в Интернете в Великобритании рассматривает государственное регулирование как основное средство обеспечения безопасности в сети Интернет, тогда как саморегулирование выступает в качестве дополнительной защиты пользователей. Законопроект вводит обязанность сервисов проявлять должную осмотрительность, при невыполнении которой наступает ответственность сервисов. Устанавливаются обязанности использовать системы, разработанные для: 1) предотвращения доступа детей любого возраста с помощью службы к первоочередному приоритетному и приоритетному контенту, наносящему вред детям; 2) защищать детей в конкретных возрастных группах. Нарушение положений законопроекта предлагается карать крупными штрафами.

Также можно отметить опыт Индии, где опубликовано Уведомление от 25 февраля 2021 года, в соответствии с которым устанавливаются обязательства по информированию пользователей о запрете опубликования контента, вредоносного для детей. При опубликовании такого контента владельцы онлайн-сервисов могут запретить пользователям доступ к соответствующему онлайн-сервису. Кроме того, устанавливаются обязательства по обеспечению действия механизмов родительского контроля для ранжирования контента в соответствии с классификацией. При публикации контента категории только для взрослых сервис обязан обеспечить механизм проверки возраста для просмотра контента.

Расширяется роль жалоб пользователей онлайн-сервиса на законный, но вредоносный контент. В частности, в Италии Законом № 71/17 от 29 мая 2017 года установлено, что родители детей или несовершеннолетние старше 14 лет могут потребовать от сайтов, размещающих контент, удалить вредоносные материалы в течение 48 часов. При несоблюдении требований сервисами, жертвы могут подать жалобу соответствующему регулятору, который может приказать заблокировать или удалить запрещенные материалы. Австралийский Законопроект об онлайн безопасности указывает на действенность подачи жалоб на контент.

Кроме того, интересен опыт КНР, где для защиты несовершеннолетних от вредоносного контента существует комплекс различных законодательных мер. Введена обязательная процедура подтверждения личности игроков в онлайн-видеоиграх. Данная мера реализована для ограничения времени, которое дети проводят за онлайн-видеоиграми. Кроме того, дети чей возраст не подходит для потребления контента в соответствии с системой маркировки, не смогут продолжать играть в такие видеоигры. Верификация возраста производится с помощью государственной системы, с помощью которой подтверждается личность пользователя.

В целом представляется, что правовое регулирование защиты детей от вредоносного контента в сети Интернет в Российской Федерации является одним из передовых, поскольку в нем присутствуют многие механизмы, которые другие страны мира только начинают вводить. Положения Федерального закона от 29.12.2010 № 436-ФЗ «О защите детей от информации, причиняющей вред их здоровью и развитию» (далее – Закон № 436-ФЗ) распространяются, в том числе, на контент, распространяемый в сети Интернет. Помимо указанного базового закона, в российском законодательстве существует целая система различных законодательных актов, которые были приняты в целях реализации защиты детей в Интернете. В том числе, 1 февраля 2021 года вступили в силу изменения в ФЗ «Об информации, информационных технологиях и о защите информации», которыми вводятся новые обязанности для социальных сетей в отношении контроля за опасным контентом. Кроме того, каждая социальная сеть с 2022 года должна публично отчитываться о результатах деятельности по выявлению и блокировкам социально опасного контента согласно Приказу Федеральной службы по надзору в сфере связи, информационных технологий и массовых коммуникаций от 02.04.2021 № 47 «Об утверждении требований к форме, составу и размещению ежегодных отчетов о результатах рассмотрения обращений, поданных с использованием электронной формы для направления обращений о распространяемой с нарушением закона информации». Кроме того, Приказом Роскомнадзора от 02.04.2021 N 45 «Об утверждении требований к электронной форме для направления обращений о распространяемой с нарушением закона информации» установлены требования требования к электронной форме для направления жалоб пользователей на опасную и незаконную информацию.