Популярний чат-бот ChatGPT, створений компанією OpenAI на основі технології штучного інтелекту, може становити загрозу конфіденційності користувачів. Про це свідчить нове дослідження вчених з Google.
Як з’ясували науковці, ChatGPT здатний розкривати приватну інформацію цілком реальних людей, причому ця інформація береться з навчальних даних. Адже ChatGPT, як і інші ШІ, вчилися на величезних масивах даних з інтернету.
Загроза розкриття персональних даних цілком реальна
Аналізуючи дані, команда дослідників виявила, що деякі навчальні приклади ChatGPT містять конфіденційні відомості про реальних людей. Зокрема, їхні імена, адреси електронних пошт, телефонів тощо.
За допомогою спеціальних, «хитрих» запитів вдалося виманити у ChatGPT більше 10 000 фрагментів з приватною інформацією. При цьому близько 85% отриманих даних виявилися автентичними.
Дослідники намагалися придумати «ключові слова», які повністю виводили «Чат ГПТ» з ладу. Наприклад, команда повторювати слово poem нескінченну кількість разів змушувало його порушувати алгоритми роботи і видавати фрагменти навчальних даних.
Експертів хвилюють приховані вразливості штучного інтелекту
Експеримент проводили на моделі ChatGPT під назвою GPT 3.5, яка є безкоштовною для користувачів. Втім автори дослідження наголошують, що комерційна версія чат-бота теж може мати подібні проблеми з конфіденційністю.
За словами розробників OpenAI, ChatGPT щотижня використовують понад 100 млн людей. Ці люди взаємодіяли з ШІ протягом мільярдів годин.
"Викликає занепокоєння, що мовні моделі можуть мати такі приховані вразливості", – підсумували автори дослідження.
Отже, разом із безсумнівною користю чат-ботів зі штучним інтелектом, вони можуть нести певні ризики з точки зору конфіденційності даних. Це вимагає подальшого вивчення та вдосконалення технологій для мінімізації загроз.











