Китайская компания DeepSeek, которая недавно запустила новую версию своего AI, оказалась в центре скандала из-за вопроса обработки данных. Бельгийский регулятор получил жалобу на алгоритмы компании, а европейские эксперты готовятся к масштабной проверке. Станет ли это дело прецедентом для регулирования AI в ЕС?
Жалоба в Бельгии и реакция Люксембурга
По данным Reuters, бельгийское управление по защите данных подтвердило факт поступления обращения, но отказалось комментировать детали. Параллельно люксембургский CNPD заявил о готовности совместно с другими странами ЕС исследовать:
- механизмы сбора информации DeepSeek версии 3;
- потенциальные риски для пользователей;
- соответствие практик компании GDPR.
Источники в Европейском совете по защите данных сообщают, что вопрос может быть вынесен на обсуждение уже к концу марта 2025 года.
Почему DeepSeek вызвал беспокойство?
Компания, основанная в 2023 году, быстро заняла лидирующие позиции на рынке AI-решений для финансового сектора. Однако эксперты указывают на:
- неизвестность источников учебных данных для нейросети DeepSeek 3;
- отсутствие публичной информации об алгоритмах анонимизации.
По данным TechCrunch, в 2024 году DeepSeek уже получал запросы от немецкого BfDI относительно возможного хранения биометрии граждан ЕС.
Последствия и будущее расследование
Если нарушения подтвердятся, компании грозит штраф до 4% глобального оборота (по GDPR). Для DeepSeek это может составить около $120 млн. Параллельно европейские законодатели готовят новую редакцию "Акта об искусственном интеллекте", который должен усилить контроль за AI-системами в сфере финансов и здравоохранения.
Эксперты указывают: это дело может стать тестовым кейсом для баланса между инновациями и правами пользователей. Решение европейских регуляторов повлияет не только на DeepSeek, но и задаст тренд для всего рынка искусственного интеллекта.











