ChatGPT, искусственный интеллект от OpenAI, снова оказался в центре внимания из-за потенциальных рисков для конфиденциальности пользователей. Недавно обнаруженная уязвимость позволяет злоумышленникам манипулировать памятью чат-бота, что может привести к утечке личной информации. Рассмотрим подробнее, как это работает и какие последствия может иметь для пользователей.
Новая функция – новые риски
OpenAI недавно представила новую функцию для ChatGPT, которая позволяет чат-боту хранить информацию о пользователе в долговременной памяти. Это включает такие данные, как возраст, пол и личные предпочтения. Цель этой функции – сделать общение с ботом более персонализированным и эффективным.
Однако исследователь по кибербезопасности Иоганн Рейбергер обнаружил, что эта функция может быть использована злоумышленниками для внедрения ложной информации в память ChatGPT. С помощью специально сформулированных запросов можно заставить бота поверить в фальшивые данные о пользователе.
Механизм атаки
Рейбергер продемонстрировал, как через косвенные функции, например, с помощью документов или ссылок, можно манипулировать памятью ChatGPT. В своем эксперименте он смог убедить бота, что пользователь живет в "Матрице" или считает Землю плоской.
Особенно опасным оказалось использование внешних файловых хранилищ, таких как Google Диск или OneDrive. Через них злоумышленники потенциально могут получить доступ ко всей переписке пользователя, включая новые сеансы общения.
Реакция OpenAI и рекомендации для пользователей
OpenAI частично устранила обнаруженную уязвимость, но риск инъекций из-за вредоносных запросов все еще существует. Компания выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.
Пользователям рекомендуется быть внимательными при добавлении новой информации в память ChatGPT и регулярно проверять сохраненные данные на предмет ложной информации. Также следует ограничить использование внешних файловых хранилищ при работе с чат-ботом.
Вывод
Обнаруженная уязвимость ChatGPT напоминает нам о важности осторожного обращения с личными данными при использовании AI-технологий. Хотя искусственный интеллект открывает новые возможности, он также создает новые риски для конфиденциальности. Пользователям стоит быть бдительными и критически оценивать информацию, которую они предоставляют AI-системам.











