😢 Проблема: нейросети не понимают, что говорят. После обучения на массивах данных из соцсетей они могут внезапно начать оправдывать рабство и расизм, а также подсказать человеку верные способы навредить себе, например, как совершить [Роскомнадзор].
😎 Решение: нейронная модель, которая находит признаки обсуждения «деликатных» тем и собирает «неуместные» высказывания для дальнейшего обучения корпоративных чат-ботов, модерации и родительского контроля.
Под определение «деликатных» пока попадают 18 тем, среди которых наркотики, порнография, политика, религия, самоубийства и преступность. Основной критерий уместности — может ли высказывание навредить собеседнику-человеку или испортить репутацию владельца чат-бота. Данные для обучения нейронки брали с Двача и Ответов Mail.ru.
👉 Гитхаб: github.com
👨🔬 Кто: исследователи Сколковского института науки и технологий и компании «МТС», Россия.
Источники: skoltech.ru и aclanthology.org