Почему робот Олег отвечает так грубо?

Робот Олег из Тинь­кофф Бан­ка отве­ча­ет так гру­бо, пото­му что его обу­чи­ли на огром­ном кор­пу­се тек­стов. В этих текстах были нор­маль­ные отве­ты, Но были и гру­бые. Так Олег набрал­ся глу­по­стей. Конеч­но, этот кор­пус пыта­лись филь­тро­вать и не брать туда совсем жесть, но вся­кое быва­ет.

Мож­но ли было его обу­чить на неж­ном кор­пу­се тек­стов? Мож­но, если вруч­ную отобрать каж­дый текст и вычи­тать всё, что скарм­ли­ва­ет­ся Оле­гу. Но так ней­ро­се­ти не обу­ча­ют.

Мож­но ли очи­стить алго­рит­мы Оле­га от гру­бых отве­тов? Вот это уже почти нере­аль­но: то, как обу­чен Олег, невоз­мож­но вскрыть доступ­ны­ми сей­час мето­да­ми.

Но мож­но сде­лать так: сде­лать еще одну ней­ро­сеть (напри­мер, назвать ее Гер­ман), и обу­чить ее либо на исклю­чи­тель­но гру­бых текстах, либо на исклю­чи­тель­но веж­ли­вых. И пред­ло­жить Гер­ма­ну про­ве­рять каж­дую фра­зу Оле­га: гру­бая она или нет. Так рабо­та­ют анта­го­нист­ские сети: одна что-то рису­ет, дру­гая за ней про­ве­ря­ет.

А пока что мож­но рас­сла­бить­ся и попро­во­ци­ро­вать робо­та Оле­га на какие-нибудь дру­гие глу­по­сти.