Nightshade: нова зброя у війні проти ШІ

Эта статья доступна на русском языке
штучний інтелект
Джерело фото: Серебряный робот держит планшет с графическим устройством, изолированным на сером, концепция технологии будущего - depositphotos.com

Дослідники з Чиказького університету представили новий інструмент для захисту авторських прав у цифровому мистецтві. Він називається Nightshade і призначений для запобігання несанкціонованому використанню творів мистецтва під час навчання технологій генеративного штучного інтелекту, таких як DALL-E, Midjourney і Stable Diffusion.

Nightshade робить непомітні для людського ока зміни в цифрових зображеннях. Ці зміни невидимі для нас, але спричиняють збої в роботі ШІ, не даючи йому змоги коректно навчатися на захищених таким чином даних. Такий підхід допоможе художникам і власникам цифрового контенту контролювати використання своїх творів.

Метод відомий як "отруєння даних". З його допомогою вводиться непередбачувана поведінка в моделі машинного навчання. Як стверджують розробники, подібні атаки можуть бути досить ефективними.

Підступна отрута Nightshade

картинки

Візуально заражені зразки нічим не відрізняються від нешкідливих картинок. При цьому отрута Nightshade оптимізована для максимальної результативності. Для того, щоб зіпсувати модель Stable Diffusion SDXL, достатньо менш ніж 100 отруєних зразків.

Механізм дії Nightshade поки до кінця не вивчений. Суть у тому, що це програмне рішення вносить у цифрові зображення непомітні для людського ока зміни на рівні окремих пікселів. Ці мікроскопічні спотворення змушують алгоритми машинного навчання неправильно інтерпретувати зміст зображень.

Одна проблема в тому, що вивести такі "отруєні" дані з уже навченої моделі дуже складно. Практично, кожне отруєне зображення доводиться вручну аналізувати і видаляти з датасету.

Тестування на моделі Stable Diffusion показало, що всього 300 зразків із "цифровою отрутою" змусили ШІ думати, що собака - це кішка, а капелюх – торт. Вплив отруєних картинок поширюється і на пов'язані об'єкти та поняття. Тому навіть відносно невелика кількість атак Nightshade може серйозно дестабілізувати здатність нейромережі генерувати осмислений візуальний контент.

Чи є небезпека для великих моделей?

При цьому дослідники визнають, що нейтралізувати великі моделі не так-то просто. Для цього знадобляться тисячі отруєних зображень. Це створює потенційну загрозу використання технології в зловмисних цілях. Щоб нашкодити відомій генеративній моделі, потрібні узгоджені масштабні атаки.

Таким чином, технологія Nightshade відкриває новий фронт боротьби за контроль над ШІ. Хоча поки неясно, наскільки довго вона зможе залишатися ефективною зброєю проти всемогутніх нейромереж. У будь-якому разі, ці перегони озброєнь обіцяють бути захопливими.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В цей день 28 жовтня

2025

2024

2023