Взломанный алгоритм: вот как заставить ChatGPT раскрыть конфиденциальные данные

Ця стаття доступна українською мовою
openai
Источник фото: Photo by Zac Wolff on Unsplash

Популярный чат-бот ChatGPT, созданный компанией OpenAI на основе технологии искусственного интеллекта, может представлять угрозу конфиденциальности пользователей. Об этом свидетельствует новое исследование ученых из Google.

Как выяснили ученые, ChatGPT способен раскрывать частную информацию вполне реальных людей, причем эта информация берется из учебных данных. Ведь ChatGPT, как и другие ИИ, учились на огромных массивах данных из интернета.

Угроза раскрытия персональных данных вполне реальна

Анализируя данные, команда исследователей обнаружила, что некоторые учебные примеры ChatGPT содержат конфиденциальные сведения о реальных людях. В частности, их имена, адреса электронных почт, телефонов и тому подобное.

С помощью специальных, "хитрых" запросов удалось выманить у ChatGPT более 10 000 фрагментов с частной информацией. При этом около 85% полученных данных оказались аутентичными.

Исследователи пытались придумать "ключевые слова", которые полностью выводили "Чат ГПТ" из строя. Например, команда повторять слово poem бесконечное количество раз заставляла его нарушать алгоритмы работы и выдавать фрагменты обучающих данных.

Экспертов волнуют скрытые уязвимости искусственного интеллекта

Эксперимент проводили на модели ChatGPT под названием GPT 3.5, которая является бесплатной для пользователей. Впрочем, авторы исследования отмечают, что коммерческая версия чат-бота тоже может иметь подобные проблемы с конфиденциальностью.

По словам разработчиков OpenAI, ChatGPT еженедельно используют более 100 млн человек. Эти люди взаимодействовали с ИИ в течение миллиардов часов.

"Вызывает беспокойство, что языковые модели могут иметь такие скрытые уязвимости", – подытожили авторы исследования.

Итак, вместе с несомненной пользой чат-ботов с искусственным интеллектом, они могут нести определенные риски с точки зрения конфиденциальности данных. Это требует дальнейшего изучения и совершенствования технологий для минимизации угроз.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 05 грудня

2025

2024

2023