В последние годы мы стали прилагать двойные усилия для того, чтобы оставаться ответственной компанией и одновременно сохранять YouTube по-настоящему открытой платформой. Мы строили свою работу на основе четырех принципов:
В ходе ближайших месяцев мы более подробно расскажем, как эти принципы воплощаются в жизнь. Первая публикация посвящена удалению опасного контента. Он применяется с момента создания YouTube, но в последнее время мы уделяем данному блоку все больше внимания. Ниже перечислены самые заметные усовершенствования с 2016 года — благодаря им нам удалось сократить количество просмотров видео, подлежащих удалению за нарушение правил, на 80 %. И мы не собираемся останавливаться на достигнутом!
Разработка правил для глобальной платформы
Прежде чем удалять контент, нарушающий правила, нужно удостовериться, что граница между допустимым и недопустимым проведена верно. Нам важно не ограничивать свободу самовыражения, но при этом защищать сообщество и способствовать его развитию. Проверками в YouTube занимается специальная команда: она следит, чтобы все наши правила сохраняли актуальность, обеспечивали безопасность пользователей и не подавляли открытость платформы. С 2018 года специалисты YouTube внесли в свод правил YouTube десятки обновлений и рекомендаций по их применению.
Перечитав то или иное правило, наша команда может решить, что оно не требует глобальной переработки, но, возможно, вызывает сомнения у создателей контента и нуждается в разъяснении. Из-за этого многие обновления являются пояснениями к уже существующим рекомендациям. Например, в этом году мы подробно объясняли, какой контент считается слишком опасным для YouTube.
Бывает, что в особо сложных случаях на разработку нового правила уходит несколько месяцев — в этот период включено время на консультации со сторонними экспертами и создателями контента YouTube. Мы стремимся понять, какие из наших правил нуждаются в улучшении, стараемся учесть особенности разных регионов и обеспечить справедливое применение принципов YouTube во всем мире, а также убедиться, что нововведения не будут ущемлять права какой-либо группы пользователей.
Один из примеров фундаментальных перемен в правилах YouTube — наше обновление, касающееся дискриминационных высказываний. Эти правила разрабатывались на протяжении нескольких месяцев, разные команды помогли нам составить обучающие материалы и инструменты для реализации новой политики. Обновление было внедрено в начале июня, и мы продолжаем их дорабатывать, но влияние нововведения уже заметно в последнем квартальном отчете о применении принципов сообщества:
Резкий рост количества удаленного контента отчасти связан со стиранием старых комментариев, видео и каналов, которые раньше не подпадали под запрет. В апреле 2019 года мы объявили, что планируем обновить правила, касающиеся харассмента, в том числе среди создателей контента. В ближайшие месяцы мы расскажем, как идет работа в этом направлении.
Машинный интеллект против нарушений
После введения новых правил за работу одновременно принимаются люди и машины: и те, и другие отмечают сомнительный контент, который затем просматривается специальными командами. С помощью хешей, то есть «цифровых отпечатков», мы отлавливаем копии роликов, нарушающих наши правила, еще до того, как их увидят пользователи. В некоторых случаях мы добавляем этот контент в общую базу хешей, благодаря чему алгоритмы YouTube могут предотвратить публикацию опасного контента еще на этапе загрузки. Это помогает нам бороться с загрузкой, в частности, с изображений сексуального насилия над детьми и видео для вербовки террористов.
В 2017 году мы начали внедрять технологии машинного обучения, которые помогают отслеживать потенциально опасный контент и направлять его на оценку специалисту. Машинное обучение отлично подходит для выявления схожих элементов роликов — благодаря им нашей команде проще находить контент, похожий на уже удаленный (но не абсолютно ему идентичный), еще до того, как его увидят пользователи. Системы YouTube распознают аналогичный контент, например, спам или видео категории 18+, а также помогают нам отслеживать видео, содержащие в том числе пропаганду ненависти. Более 87 % из 9 млн видео, которые мы удалили во II квартале 2019 года, первоначально были выявлены автоматически. Несмотря на это, в спорных ситуациях очень многое зависит от контекста, поэтому здесь нам не обойтись без человеческой оценки.
Мы вкладываем много труда в совершенствование автоматизированных систем, наши команды инженеров каждый месяц внедряют новые методы работы. К примеру, после того как во II квартале 2019 года мы обновили системы отслеживания спама, и количество каналов, заблокированных за нарушение правил относительно спам-рассылок, выросло более чем на 50 %.
Удаление контента до его распространения
Мы стремимся к тому, чтобы контент, нарушающий правила YouTube, перед удалением увидело как можно меньше пользователей. Как упоминалось выше, после доработки наши автоматизированные системы стали выявлять и оценивать контент, прежде чем он появится в открытом доступе. Благодаря этому во II квартале более 80 % неприемлемых видео были автоматически удалены еще до первого просмотра.
Мы не намерены на этом останавливаться, наша цель: сократить количество опасного контента, который становится доступен пользователям. Именно поэтому мы привлекли больше 10 000 сотрудников Google, в задачи которых теперь входит выявление, оценка и удаление контента, нарушающего правила YouTube. Благодаря быстроте реакции неприемлемые ролики составляют очень малую долю процента от других материалов, популярных в нашем сообществе — например, обучающих видео. В последний месяц за дискриминационные высказывания были удалены почти 30 000 роликов. Все вместе они успели набрать лишь 3% от просмотров, которые набрали ролики про вязание, загруженные за тот же период.
На прошлой неделе мы обновили Отчет о применении принципов сообщества — документ, который позволяет лучше оценить объем материалов, удаляемых с YouTube, понять причины удаления таких видео и методику их выявления. Этот отчет показывает, как технологии, внедренные в ходе последних лет, помогли нам многократно повысить скорость удаления опасного контента. Кроме того, из ежеквартальных данных видно, что основой нашей работы по внедрению и реализации правил до сих пор служит человеческий опыт. Он незаменим при разработке продуманной системы правил, тщательной оценке контента и внедрении технологий машинного обучения.