Нейронки путают обсуждение шахматных партий с расистским контентом

🤔 Что слу­чи­лось: YouTube забло­ки­ро­вал попу­ляр­ный канал шах­ма­ти­ста из Хор­ва­тии за опас­ное и вре­до­нос­ное содержимое. 

Иссле­до­ва­те­ли пред­по­ло­жи­ли, что это про­изо­шло из-за дви­же­ния Black Lives Matter. Они про­ве­ри­ли рабо­ту алго­рит­мов опре­де­ле­ния язы­ка враж­ды почти на 700 тыс. ком­мен­та­ри­ев в шах­мат­ных YouTube-каналах и выяс­ни­ли, что 82% ото­бран­ных ней­рон­ка­ми сооб­ще­ний не содер­жа­ло слов расо­вой нена­ви­сти. Алго­рит­мы реа­ги­ро­ва­ли на такие сло­ва, как «белые», «чёр­ные», «ата­ка», «угро­за» и так далее.

🤨 И что? YouTube исполь­зу­ет для ана­ли­за кон­тен­та машин­ные алго­рит­мы, а зна­чит, любой акка­унт может быть забло­ки­ро­ван за подоб­ную речь. Если вашей белой стене угро­жа­ет чёр­ная пле­сень, этот кон­тент может тоже ока­зать­ся неприемлемым.

Хоро­шо, что это пока мало каса­ет­ся рус­ско­языч­ной аудитории.

👥 Кто: сту­ден­ты Уни­вер­си­те­та Кар­не­ги — Меллона.

Источ­ник: Tech Xplore