ChatGPT навчився красти дані користувачів: як це відбувається

Эта статья доступна на русском языке
chatgpt

ChatGPT, штучний інтелект від OpenAI, знову опинився в центрі уваги через потенційні ризики для конфіденційності користувачів. Нещодавно виявлена вразливість дозволяє зловмисникам маніпулювати пам'яттю чат-бота, що може призвести до витоку особистої інформації. Розглянемо детальніше, як це працює і які наслідки може мати для користувачів.

Нова функція – нові ризики

OpenAI нещодавно представила нову функцію для ChatGPT, яка дозволяє чат-боту зберігати інформацію про користувача у довготривалій пам'яті. Це включає такі дані, як вік, стать та особисті уподобання. Мета цієї функції – зробити спілкування з ботом більш персоналізованим та ефективним.

Однак дослідник з кібербезпеки Йоган Рейбергер виявив, що ця функція може бути використана зловмисниками для впровадження неправдивої інформації в пам'ять ChatGPT. За допомогою спеціально сформульованих запитів можна змусити бота повірити у фальшиві дані про користувача.

Механізм атаки

Рейбергер продемонстрував, як через непрямі функції, наприклад, за допомогою документів чи посилань, можна маніпулювати пам'яттю ChatGPT. У своєму експерименті він зміг переконати бота, що користувач живе у "Матриці" або вважає Землю пласкою.

Особливо небезпечним виявилося використання зовнішніх файлових сховищ, таких як Google Диск або OneDrive. Через них зловмисники потенційно можуть отримати доступ до всього листування користувача, включаючи нові сеанси спілкування.

Реакція OpenAI та рекомендації для користувачів

OpenAI частково усунула виявлену вразливість, але ризик ін'єкцій через шкідливі запити все ще існує. Компанія випустила інструкцію з управління функцією пам'яті, щоб допомогти користувачам захистити свої дані.

Користувачам рекомендується бути уважними при додаванні нової інформації до пам'яті ChatGPT та регулярно перевіряти збережені дані на предмет неправдивої інформації. Також варто обмежити використання зовнішніх файлових сховищ при роботі з чат-ботом.

Висновок

Виявлена вразливість ChatGPT нагадує нам про важливість обережного поводження з особистими даними при використанні AI-технологій. Хоча штучний інтелект відкриває нові можливості, він також створює нові ризики для конфіденційності. Користувачам варто бути пильними та критично оцінювати інформацію, яку вони надають AI-системам.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В этот день 05 октября

2025

2024

2023