В России сделали нейронку, которая поможет чат-ботам не обсуждать скользкие темы

В России сделали нейронку, которая поможет чат-ботам не обсуждать скользкие темы

Фильтруй базар.

😢 Проблема: нейросети не понимают, что говорят. После обучения на массивах данных из соцсетей они могут внезапно начать оправдывать рабство и расизм, а также подсказать человеку верные способы навредить себе, например, как совершить [Роскомнадзор].

😎 Решение: нейронная модель, которая находит признаки обсуждения «деликатных» тем и собирает «неуместные» высказывания для дальнейшего обучения корпоративных чат-ботов, модерации и родительского контроля.

Под определение «деликатных» пока попадают 18 тем, среди которых наркотики, порнография, политика, религия, самоубийства и преступность. Основной критерий уместности — может ли высказывание навредить собеседнику-человеку или испортить репутацию владельца чат-бота. Данные для обучения нейронки брали с Двача и Ответов Mail.ru.

👉 Гитхаб: github.com 

👨‍🔬 Кто: исследователи Сколковского института науки и технологий и компании «МТС», Россия.

Источники: skoltech.ru и aclanthology.org

Получите ИТ-профессию
В «Яндекс Практикуме» можно стать разработчиком, тестировщиком, аналитиком и менеджером цифровых продуктов. Первая часть обучения всегда бесплатная, чтобы попробовать и найти то, что вам по душе. Дальше — программы трудоустройства.
Вам может быть интересно
[anycomment]
Exit mobile version