Полицейские алгоритмы оказались дюже предвзятыми

👉 Ситу­а­ция: суще­ству­ют систе­мы про­гно­зи­ро­ва­ния, кото­рые исполь­зу­ют­ся в поли­ции. Систе­ма на базе ней­ро­но­чек изу­ча­ет исто­ри­че­ские дан­ные по пре­ступ­но­сти в горо­де и пока­зы­ва­ет потен­ци­аль­но кри­ми­но­ген­ные зоны в буду­щем. Вро­де как пред­ска­зы­ва­ет пре­ступ­ле­ния на осно­ве боль­ших данных.

😢 Про­бле­ма: эти систе­мы ока­за­лись очень неточ­ны­ми и даже вред­ны­ми, пото­му что обу­ча­лись на «гряз­ных» дан­ных. «Гряз­ные» — это те, кото­рые полу­че­ны нечест­ным путём: напри­мер, поли­цей­ские были пред­взя­ты, бра­ли взят­ки, выби­ва­ли пока­за­ния и всё такое.

🧐 Как узна­ли: изу­чи­ли 13 поли­цей­ских орга­нов США, за кото­ры­ми чис­лят­ся обви­не­ния в кор­руп­ции, нару­ше­ни­ях и дис­кри­ми­на­ции. Во всех этих орга­нах исполь­зо­ва­лись систе­мы про­гно­зи­ро­ва­ния на базе ИИ. В 9 из 13 слу­ча­ев ста­ло оче­вид­но, что если дан­ные «гряз­ные», то и пред­ска­за­ния такие. Про­бле­мы с кор­руп­ци­ей, жесто­ко­стью, пред­взя­то­стью и про­чи­ми поли­цей­ски­ми гре­ха­ми — всё это вос­про­из­во­дит­ся в моде­лях ИИ, поэто­му не име­ет боль­шой цен­но­сти для поли­ции. А то и вредит.

🤔 И что: ниче­го. Пока не при­ду­ма­ли, что с этим делать. Дру­гое иссле­до­ва­ние пока­зы­ва­ет, что ИИ более эффек­тив­но вычис­ля­ет потен­ци­аль­ных реци­ди­ви­стов, так что ниче­го не понятно.

🧐 Кто выяс­нил: Инсти­тут искус­ствен­но­го интел­лек­та в Нью-Йоркском университете.

Источ­ник: The Next Web