👁🗨 Прорыв в защите моделей компьютерного зрения Исследователи Центрального университета предложили
👁🗨 Прорыв в защите моделей компьютерного зрения
Исследователи Центрального университета предложили метод, который позволяет защитить уже готовую модель от нелегального использования — без дообучения.
Раньше таких способов не существовало. Метод высоко оценили специалисты Google, Amazon, Yahoo и других компаний на престижной конференции ICCV 2025.
Ученые встроили в нейросеть особый нейрон-детектор. Он игнорирует обычные изображения и активируется только при появлении секретного визуального ключа — маленького паттерна размером 4х4 пикселя.
Специальные «нейроны-нарушители» могут блокировать работу системы при отсутствии ключа. Так можно предотвратить «пиратское» использование модели.
По расчетам, вероятность ложного срабатывания детектора составляет 0,01%, а сама технология подходит для любых моделей компьютерного зрения.
Исследователи отмечают, что такой механизм может стать основой для нового рынка лицензирования ИИ.
👋 Подпишитесь на Hi, AI!
Комментарии