ТОП

Теги

АБА указала на различия в модерации соцсетей между Россией и Западом

25.11.2025 13:00
Опубликовано в Techo

Российские социальные сети демонстрируют более высокую скорость в удалении вредоносного контента по сравнению с западными платформами. Согласно исследованию Ассоциации блогеров и агентств (АБА), на это у российских сервисов уходит всего один день, в то время как на Западе может потребоваться несколько дней или даже недель. Однако, несмотря на высокую оперативность, эксперты подчеркивают, что количество удаляемого контента не всегда говорит о качестве работы по модерации.

Одним из ключевых факторов в эффективной борьбе с вредоносным контентом в России является сотрудничество государства и платформ. Согласно данным исследования, Роскомнадзор (РКН) активно участвует в процессе модерации, и результаты работы заметны. В частности, за первые пять месяцев 2025 года было удалено более 20 миллионов противоправных материалов, включая детскую порнографию, суицидальные призывы и контент, направленный на вовлечение несовершеннолетних в незаконную деятельность. Это подтверждает, что в России действительно прилагаются усилия к более тщательной и эффективной очистке социальных сетей от опасного контента.

Различия в подходах к модерации В то время как российские площадки демонстрируют оперативность в удалении вредоносных материалов, на Западе наблюдается иной подход. В многих странах в последние годы все чаще принимаются меры, направленные не столько на удаление контента, сколько на ограничение доступа к социальным сетям для определенных возрастных групп. Например, в Австралии с 2024 года вступил в силу закон, который запрещает детям младше 16 лет создавать аккаунты в социальных сетях. Аналогичные законы были приняты в Германии, Бельгии, Италии и Франции. В этих странах акцент сделан на ограничение доступа к социальным платформам для несовершеннолетних, а не на оперативную модерацию контента.

Несмотря на это, в России также активно обсуждается необходимость введения возрастных ограничений на доступ к соцсетям. Однако, в отличие от западных стран, в России акцент в обсуждениях делается именно на улучшение модерации контента. Государственные структуры, такие как Роскомнадзор, играют ключевую роль в этом процессе, обеспечивая быструю реакцию на угрозы и эффективное сотрудничество с онлайн-платформами.

Мнение экспертов о модерации в России и на Западе Антон Горелкин, первый заместитель председателя Комитета Госдумы по информполитике, подчеркивает, что в России система самоконтроля социальных сетей работает достаточно эффективно. С момента принятия закона о саморегуляции социальных платформ российские компании начали оперативнее реагировать на требования государства. Горелкин также отметил, что сверхзадачей для российской интернет-отрасли является создание таких условий, при которых пользователи не будут искать альтернативы на иностранных ресурсах, а смогут найти все необходимые сервисы и контент на отечественных платформах.

Однако, несмотря на высокий темп удаления вредоносного контента, Екатерина Мизулина, глава Лиги безопасного интернета, акцентирует внимание на том, что скорость удаления контента не всегда гарантирует его полное устранение. Важно не только реагировать на угрозы, но и выявлять тех, кто создает и распространяет опасные материалы. Мизулина отмечает, что подходы к модерации на различных платформах сильно различаются. Например, Telegram оперативно блокирует жестокий контент, но медленно реагирует на другие виды нарушений, такие как продажа наркотиков или пропаганда насилия.

Эксперты считают, что для достижения более высоких стандартов безопасности важно не только удалять вредоносный контент, но и преследовать тех, кто стоит за его распространением. В России эта работа требует тесного взаимодействия между правоохранительными органами и онлайн-платформами. В этом контексте также важно, чтобы технологические компании инвестировали в совершенствование своих инструментов и усиливали ответственность за безопасность своих пользователей.

Проблемы модерации и пути их решения Одной из ключевых проблем, с которой сталкиваются как российские, так и западные платформы, является отсутствие эффективных механизмов выявления источников опасного контента. Как отмечает Мизулина, многие платформы не предпринимают достаточных усилий для того, чтобы не только удалить опасные материалы, но и выявить создателей таких материалов. Это связано с рядом факторов, включая недостаточную работу правоохранительных органов и сложности, связанные с оперативностью реагирования.

Принципиальной важностью для эффективной борьбы с вредоносным контентом является не только скорость, но и качество модерации. В этой связи важным шагом является создание и внедрение новых технологий для мониторинга контента, а также повышение ответственности самих платформ за действия их пользователей. Совершенствование этих процессов позволит улучшить безопасность в интернете и обеспечить более высокий уровень защиты для всех категорий пользователей.

Авторизуйтесь, чтобы получить возможность оставлять комментарии

Stars




var SVG_ICONS = ' ';