Российские исследователи придумали способ защитить готовые модели компьютерного зрения от пиратства — без переобучения, сложных интеграций и лишних вычислений, сообщает ТАСС.
По данным Центрального университета (Москва), команда разработала подход, который позволяет встроить защиту в уже обученную модель. Это нацелено на одну из ключевых проблем рынка ИИ: ценные разработки легко украсть или использовать без разрешения, а существующие методы защиты требуют вмешательства на этапе обучения, что почти невозможно для готовых моделей.
Как это работает
Учёные предлагают добавлять в модель специальные «нейроны-детекторы». Они игнорируют обычные изображения и реагируют только на особый раздражитель — по сути, секретный ключ. Его наличие служит признаком легального использования модели или позволяет подтвердить её правообладателя.
Есть и обратный вариант — «нейроны-нарушители». Они специально портят работу модели, если ключа нет. То есть украденная модель просто не сможет полноценно работать.
Тесты показали, что эта встройка не ломает алгоритм: вероятность случайной активации таких нейронов меньше 0,01%.
Зачем это нужно
Сейчас компании и исследователи вкладывают огромные ресурсы в ИИ-разработки, но защитить их от копирования очень сложно. Новый подход позволяет делать это без ограничений, присущих старым методам.
В перспективе технологию можно распространять не только на компьютерное зрение, но и на большие языковые модели, системы принятия решений и другие ИИ-алгоритмы. Разработчики считают, что это поможет сформировать рынок прозрачного лицензирования ИИ-технологий.
Центральный университет — первый российский STEM-вуз, созданный при участии крупных компаний вроде «Тинькофф», Газпромбанка, Kaspersky, МТС, Tele2, Yandex Cloud, VK, Avito, Ozon, X5 Group, S7 Airlines, «Норникеля», «Сибура» и других партнёров.
