Алгоритм будет учить роботов быть толерантными и не причинять вред человеку

Систе­мы, осно­ван­ные на deep learning, сего­дня управ­ля­ют всем, начи­ная от рас­по­зна­ва­ния лиц и закан­чи­вая про­гно­за­ми фон­до­во­го рын­ка. В боль­шин­стве слу­ча­ев нам пле­вать, каким обра­зом маши­ны при­хо­дят к сво­им выво­дам, если эти выво­ды пра­виль­ны. Но если ИИ начи­на­ет реже одоб­рять кре­ди­ты жен­щи­нам или счи­тать пре­ступ­ни­ка­ми всех чер­но­ко­жих под­ряд — это проблема.

Но про­бле­ма уже почти реше­на: учё­ные из Мас­са­чу­сет­ско­го тех­но­ло­ги­че­ско­го инсти­ту­та раз­ра­бо­та­ли фрейм­ворк Seldonian, кото­рый будет учить робо­тов толе­рант­но­сти в понят­ной для них фор­ме. Идея не нова — Айзек Ази­мов ещё в 1942 году сфор­му­ли­ро­вал «три зако­на робо­тех­ни­ки», кото­рые и были взя­ты за осно­ву алгоритма.

Тут была расист­ская шут­ка, но ней­ро­сет­ка ее удалила.

Источ­ник: The Next Web