Исследователи из Чикагского университета представили новый инструмент для защиты авторских прав в цифровом искусстве. Он называется Nightshade и предназначен для предотвращения несанкционированного использования произведений искусства при обучении технологий генеративного искусственного интеллекта, таких как DALL-E, Midjourney и Stable Diffusion.
Nightshade делает незаметные для человеческого глаза изменения в цифровых изображениях. Эти изменения невидимы для нас, но вызывают сбои в работе ИИ, не позволяя ему корректно обучаться на защищенных таким образом данных. Такой подход поможет художникам и владельцам цифрового контента контролировать использование своих произведений.
Метод известен как "отравление данных". С его помощью вводится непредсказуемое поведение в модели машинного обучения. Как утверждают разработчики, подобные атаки могут быть весьма эффективными.
Коварный яд Nightshade
Визуально зараженные образцы ничем не отличаются от безобидных картинок. При этом яд Nightshade оптимизирован для максимальной результативности. Для того, чтобы испортить модель Stable Diffusion SDXL, достаточно менее 100 отравленных образцов.
Механизм действия Nightshade пока до конца не изучен. Суть в том, что это программное решение вносит в цифровые изображения незаметные для человеческого глаза изменения на уровне отдельных пикселей. Эти микроскопические искажения заставляют алгоритмы машинного обучения неправильно интерпретировать содержание изображений.
Одна проблема в том, что вывести такие "отравленные" данные из уже обученной модели очень сложно. Практически, каждое отравленное изображение приходится вручную анализировать и удалять из датасета.
Тестирование на модели Stable Diffusion показало, что всего 300 образцов с "цифровым ядом" заставили ИИ думать, что собака – это кошка, а шляпа – торт. Влияние отравленных картинок распространяется и на связанные объекты и понятия. Поэтому даже относительно небольшое количество атак Nightshade может серьезно дестабилизировать способность нейросети генерировать осмысленный визуальный контент.
Есть ли опасность для больших моделей?
При этом исследователи признают, что нейтрализовать крупные модели не так-то просто. Для этого потребуются тысячи отравленных изображений. Это создает потенциальную угрозу использования технологии в злонамеренных целях. Чтобы навредить известной генеративной модели, нужны согласованные масштабные атаки.
Таким образом, технология Nightshade открывает новый фронт борьбы за контроль над ИИ. Хотя пока неясно, насколько долго она сможет оставаться эффективным оружием против всемогущих нейросетей. В любом случае, эта гонка вооружений обещает быть захватывающей.











