Выяснили, что не так с алгоритмами Ютуба

Выяснили, что не так с алгоритмами Ютуба

🤨 Что: год назад мы рассказывали, что Mozilla решила разобраться со странным механизмом рекомендаций YouTube. Например, как пользователь со вполне невинными запросами внезапно попадает в «кротовую нору» с расистским контентом и теориями заговоров. В исследовании приняли участие 37 380 пользователей YouTube из 190 стран.

🧐 И тут: выложили результаты исследования. Оказалось, что в 12,2% случаев алгоритм рекомендует видео, которых на YouTube вообще не должно быть. В неанглоязычных странах алгоритм работает хуже: нерелевантный и нежелательный контент на других языках попадает в рекомендации на 60% чаще. Особенно не повезло говорящим на французском, португальском и немецком языках. Подозреваем, что русскоговорящих волонтёров было критически мало. 

Исследователи Mozilla продолжают работу и призывают YouTube честно рассказать, как работает их алгоритм рекомендаций.

📖 Почитать: assets.mofoprod.net

🙂 Кто: компания Mozilla, США.

Получите ИТ-профессию
В «Яндекс Практикуме» можно стать разработчиком, тестировщиком, аналитиком и менеджером цифровых продуктов. Первая часть обучения всегда бесплатная, чтобы попробовать и найти то, что вам по душе. Дальше — программы трудоустройства.
Вам может быть интересно
[anycomment]
Exit mobile version