Один клик может изменить будущее ваших данных – именно так можно описать ситуацию, в которой оказались пользователи Anthropic. Компания неожиданно предложила всем владельцам аккаунтов Claude решить, согласны ли они делиться своими чатами для обучения искусственного интеллекта, или готовы защищать свою конфиденциальность. Теперь у каждого есть время до 28 сентября, чтобы нажать нужную кнопку.
Ранее Anthropic не использовал данные из потребительских чатов для обучения моделей. Теперь все иначе – ваши разговоры, коды, даже случайные вопросы могут стать частью гигантской обучающей базы. Для тех, кто не откажется, компания будет хранить эти данные в течение пяти лет. До этого информацию удаляли уже через 30 дней, а в отдельных случаях хранили до двух лет.
Изменения коснутся пользователей Claude Free, Pro и Max, а также Claude Code. Бизнес-клиенты, государственные учреждения и те, кто работает через API, остаются вне новой политики. Anthropic объясняет: использование реальных данных поможет сделать искусственный интеллект более безопасным, а его ответы – более точными. Мол, именно это позволит системе лучше распознавать некорректный контент и совершенствовать навыки.
Однако в таком подходе не все так прозрачно. Огромная конкуренция на рынке ИИ подталкивает компании собирать максимум ценной информации. Разработчики стремятся не отставать от OpenAI и Google, а для этого им нужны миллионы живых диалогов.
В последние месяцы отрасль искусственного интеллекта меняет политику хранения данных почти каждую неделю. Например, OpenAI вынуждена выполнять судебное решение о хранении чатов пользователей без срока давности из-за судебной тяжбы с издателями. На этом фоне даже эксперты по конфиденциальности признают: понять новые правила сложно, а большинство пользователей о них даже не догадывается.
Интерфейс Anthropic спроектирован так, что легко промахнуться с выбором – большие кнопки «Принять» и едва заметный переключатель для отказа от сбора данных. Регуляторы уже бьют тревогу: без прозрачных механизмов получить сознательное разрешение почти невозможно, а компании рискуют получить санкции за скрытое изменение политик.
История с Anthropic – звонок для всех пользователей искусственного интеллекта. Ваши данные – это ценный ресурс, и контроль над ними легко потерять. Не игнорируйте всплывающие окна и внимательно читайте новые правила, ведь сейчас вопрос приватности становится вопросом выбора для каждого.











