Исследование выяснило, почему YouTube предлагает нежелательный контент
Исследование эффективности работы алгоритмов YouTube показало, что они рекомендуют нежелательный контент.
Об этом говорится на сайте Mozilla Foundation, передает Укринформ.
Mozilla провела исследования с помощью RegretsReporter — расширение браузера с открытым кодом. Люди добровольно передавали свои данные и предоставили исследователям доступ к пулу сохранившихся рекомендательных данных YouTube.
Как выяснилось, люди из неанглоязычных стран чаще сталкиваются с оскорбительным контентом в YouTube, а в рекомендациях появляются видео с языком ненависти, жестокости и мошенничеством.
Волонтеры жаловались модераторам платформы на видеоролики и из-за распространения паники относительно коронавируса, и из-за политической дезинформации, и из-за несоответствующих «детских» мультфильмов.
Более 71 процента всех видеозаписей, на которые пожаловались добровольцы, были активно рекомендованы собственным алгоритмом YouTube. Сейчас почти 200 таких видеороликов были изъяты с платформы, в том числе и несколько таких, которые YouTube считал нарушителями собственной политики. Эти видео имели общее количество просмотров 160 млн, говорится в отчете Mozilla.
«Наше исследование подтверждает, что YouTube не только размещает, но и активно рекомендует видео, которые нарушают собственную политику. Сейчас мы также знаем, что людям в англоязычных странах, скорее всего, наибольший вред был причинен от алгоритма рекомендаций YouTube, которые не контролируется », — отметил старший менеджер по вопросам защиты интересов Mozilla Бренди Геркинк.