🤨 Что: год назад мы рассказывали, что Mozilla решила разобраться со странным механизмом рекомендаций YouTube. Например, как пользователь со вполне невинными запросами внезапно попадает в «кротовую нору» с расистским контентом и теориями заговоров. В исследовании приняли участие 37 380 пользователей YouTube из 190 стран.
🧐 И тут: выложили результаты исследования. Оказалось, что в 12,2% случаев алгоритм рекомендует видео, которых на YouTube вообще не должно быть. В неанглоязычных странах алгоритм работает хуже: нерелевантный и нежелательный контент на других языках попадает в рекомендации на 60% чаще. Особенно не повезло говорящим на французском, португальском и немецком языках. Подозреваем, что русскоговорящих волонтёров было критически мало.
Исследователи Mozilla продолжают работу и призывают YouTube честно рассказать, как работает их алгоритм рекомендаций.
📖 Почитать: assets.mofoprod.net
🙂 Кто: компания Mozilla, США.