Китайська компанія DeepSeek, яка нещодавно запустила нову версію свого AI, опинилася в центрі скандалу через питання обробки даних. Бельгійський регулятор отримав скаргу на алгоритми компанії, а європейські експерти готуються до масштабної перевірки. Чи стане ця справа прецедентом для регулювання AI у ЄС?
Скарга в Бельгії та реакція Люксембурга
За даними Reuters, бельгійське управління з захисту даних підтвердило факт надходження звернення, але відмовилося коментувати деталі. Паралельно люксембурзький CNPD заявив про готовність спільно з іншими країнами ЄС дослідити:
- механізми збору інформації DeepSeek версії 3;
- потенційні ризики для користувачів;
- відповідність практик компанії GDPR.
Джерела в Європейській раді з захисту даних повідомляють, що питання може бути винесене на обговорення вже до кінця березня 2025 року.
Чому DeepSeek викликав занепокоєння?
Компанія, заснована у 2023 році, швидко зайняла лідируючі позиції на ринку AI-рішень для фінансового сектору. Проте експерти вказують на:
- невідомість джерел навчальних даних для нейромережі DeepSeek 3;
- відсутність публічної інформації про алгоритми анонімізації.
За даними TechCrunch, у 2024 році DeepSeek вже отримував запити від німецького BfDI щодо можливого зберігання біометрії громадян ЄС.
Наслідки та майбутнє розслідування
Якщо порушення підтвердяться, компанії загрожує штраф до 4% глобального обороту (за GDPR). Для DeepSeek це може становити близько $120 млн. Паралельно європейські законодавці готують нову редакцію "Акта про штучний інтелект", який має посилити контроль за AI-системами у сфері фінансів і охорони здоров'я.
Експерти вказують: ця справа може стати тестовим кейсом для балансу між інноваціями та правами користувачів. Рішення європейських регуляторів вплине не лише на DeepSeek, але й задасть тренд для всього ринку штучного інтелекту.











