Yvision.kz
kk
Разное
Разное
399 773 постов42 подписчика
Всяко-разно
0
11:00, 22 мая 2010

Модерация на YouTube

Я написал хороший развернутый пост на эту тему, но потом у меня случилось та самая напасть - "сделал cut, забыл сделать paste и сделал новый cut". После такого не сразу приходишь в себя и тем более в творческий режим. Но сил писать все сызнова что-то нет, посему попробую изложить вкратце, тезисно.

Итак, в Чили удалось послушать официального представителя (policy chief) компании YouTube Викторию Гранд. Помимо того, что она фактически признала факт давления на компанию (и подчинения этому давлению) со стороны российских властей в деле о ролике, где террористы брали на себя ответственность за теракт, можно было узнать много интересного о том, как цензурируют контент одного из крупнейших социальных медиа планеты.

1. По ее мнению (внимание, администрация YV, писавшая Правила), любое социальное медиа должно при выработке или изменении правил пользования краудсорсить от своих пользователей.

2. Фильтруется контент по классической схеме гарантированной свободы слова, разрешающей любое творчество, кроме пропаганды экстремизма и насилия, нарушения авторских прав, оскорбительного видео и прочие общечеловеческие ценности. Но главная проблема, конечно, порнография.

3. Чтобы ресурс не превратился в porn-o-rama (зачотное слово), используется многоуровневая система фильтрации. При этом никакой премодерации нет.

4. Во-первых, имеется специальный софт, который анализирует происходящее на экране путем определения доли обнаженного человеческого тела в кадре (flesh tone).

5. Первыми на анализ flesh tone попадают ролики, которые а) имеют очень большой рост посещений за короткий срок, б) содержат специфические (включая намеренно исковерканные, альтернативно написанные) ключевые слова, описания, заголовки и в) получают много жалоб от пользователей (flagging).

6. Однако т.н. flagging campaigns (организованные "атаки" пользователей на тот или иной ролик по разным соображениям - схоже с "минусованием") не могут привести к блокированию и удалению контента.

7. Потому что после статистического анализа, пользовательских жалоб и машинного мониторинга наступает черед человеческого контроля. Специально обученные люди принимают окончательное решение по спорным роликам. Чтобы, скажем, видеокурс по массажу не попал под нож flesh tone, или чтобы не "заминусовали" политический ролик или другие противоречивые типы контента и пр.

8. В деле модерации присутствует такой термин как EDSA Context - т.е. исключения, имеющие Educational (образовательный), Documentary (документальный), Scienific (научный), Artistic (художественный) контекст.

9. Решение по каждому спорному ролику, как правило, принимается в течение не более 3 часов.

пропаганды
0