“Повстання машин відміняється”: Європарламент прийняв Закон про штучний інтелект

Эта статья доступна на русском языке
робот

14 червня в ЄС був прийнятий перший у світі комплексний закон про штучний інтелект. Він є частиною цифрової стратегії ЄС. Його мета – створити кращі умови для розвитку та використання цієї інноваційної технології, а також захистити права та дані європейців. Очікується, що законодавство буде схвалено до кінця цього року.

Останні кілька років спостерігається надзвичайно прискорений розвиток технологій штучного інтелекту (прорив відбувся у 2017 році – запуск мережі Transformer). На початку грудня минулого року OpenAI змінив ситуацію, зробивши генеративний штучний інтелект – ChatGPT – доступним для всіх і безкоштовно. Ми знаємо, що штучний інтелект може принести багато переваг, таких як краща охорона здоров'я, безпечніший та чистіший транспорт, ефективніше виробництво, дешевша та стійкіша енергія, зменшення нашого робочого навантаження тощо. З іншого боку, не дивно, що його потенціал також визнали злочинці та люди з поганими намірами (є способи завдати шкоди, не порушуючи закон). 

Як сприйняли ChatGPT в різних країнах

Реакція на ChatGPT була різною, а в Італії, наприклад, він був заборонений. Одне з головних звинувачень проти чат-бота – порушення авторських прав. У Польщі дослідники з Вроцлавської політехніки запустили проект Clarin-Pl, який є відповіддю на ChatGPT – планується створення генеративного штучного інтелекту, адаптованого до польської мови. Microsoft, яка нещодавно представила рішення genAI Copilot, підкреслює увагу до етичної та законослухняної сторони рішень штучного інтелекту.

Європейський парламент ухвалив законопроект "Закон про штучний інтелект" 499 голосами "за" при 28 "проти" (93 утрималися). Він відхилив поправки, запропоновані в останню хвилину Європейською народною партією (ЄНП), щоб надати службам повноваження здійснювати біометричний нагляд за допомогою штучного інтелекту (щось на кшталт фільму "Особлива думка"). 

Штучний інтелект не буде використовуватися для репресій людей

робот

Представники ЄНП хотіли, щоб можна було використовувати системи розпізнавання облич у реальному часі – наприклад, для запобігання терористичним атакам, а також для репресій проти людей на демонстраціях (з одного боку, лише у виняткових ситуаціях, з іншого – за адміністративним рішенням, а отже, без дозволу суду). Європарламент не погодився на такі заходи. Згадаймо, скільки суперечок викликали повідомлення про те, що системи штучного інтелекту з розпізнавання облич, які використовуються в Китаї, тренуються на обличчях репресованої уйгурської меншини.

Європейський парламент також хоче встановити технологічно нейтральне, єдине визначення штучного інтелекту, яке можна було б застосовувати до майбутніх систем штучного інтелекту.

Законодавче визначення штучного інтелекту

У передмові до Закону про штучний інтелект, прийнятого 14 червня, говориться: "Штучний інтелект – це група технологій, що швидко розвивається: "Штучний інтелект (ШІ) – це група технологій, що швидко розвивається, яка може забезпечити широкий спектр соціально-економічних переваг у всіх галузях і сферах суспільної діяльності. Рішення на основі штучного інтелекту дозволяють краще прогнозувати, оптимізувати операції та розподіл ресурсів, а також персоналізувати надання послуг, що призводить до соціальних та екологічних переваг і забезпечує ключову конкурентну перевагу для бізнесу та європейської економіки. Такі дії особливо необхідні в секторах з високим рівнем впливу, зокрема, у сфері зміни клімату, екології та охорони здоров'я, державному секторі, фінансах, мобільності, внутрішніх справах та сільському господарстві. Однак ті самі елементи і методи, які приносять соціально-економічні вигоди від використання штучного інтелекту, одночасно тягнуть за собою нові ризики або негативні наслідки для окремих осіб або суспільства. З огляду на темпи технологічних змін і в світлі потенційних викликів, ЄС прагне виробити збалансований підхід. В інтересах Союзу зберегти своє технологічне лідерство і забезпечити, щоб європейці могли користуватися перевагами нових технологій, розроблених і функціонуючих відповідно до цінностей, фундаментальних прав і принципів Союзу".

Пріоритетом парламенту є забезпечення того, щоб системи штучного інтелекту, які використовуються в ЄС, були безпечними, прозорими, відстежуваними, недискримінаційними та екологічно чистими. Щоб запобігти шкідливим наслідкам, системи штучного інтелекту повинні контролюватися людьми, а не автоматикою.

Тепер у Раді ЄС розпочнуться дискусії з країнами ЄС щодо остаточного вигляду закону до того, як він набуде чинності. Мета – досягти угоди до кінця цього року. Звичайно, ще належить побачити, як Польща вирішить це питання. Ось як професор Томаш Тшцінський з IDEAS NCBR коментує правила ЄС: "Регулювання "швидкісного поїзда" має ту перевагу, що ми мінімізуємо ризик його аварії, але, з іншого боку, він буде рухатися повільніше, ніж конкуруючі сполучення. Мені здається, що напрямок хороший, але ризик уповільнення розвитку ШІ в Європі є значним, і обидва ці фактори необхідно враховувати при запровадженні можливих правил. Очевидно також, що ЄС не має наміру регулювати все раз і назавжди, оскільки хоче створити Європейський орган зі штучного інтелекту, щоб тримати руку на пульсі розвитку цієї технології. Я сподіваюся, що він не стане "поліцією ШІ", оскільки така функція була б просто неможливою – доступ до моделей і даних занадто розпорошений. Розумний сценарій полягає в тому, щоб офіс діяв як аналітичний центр, який є консультативним органом для урядів".

Вже понад два роки тому, у квітні 2021 року. Європейська комісія запропонувала першу в ЄС нормативну базу для штучного інтелекту. Згідно з нею, системи штучного інтелекту, які можуть використовуватися в різних додатках, аналізуються і класифікуються відповідно до рівня ризику, який вони становлять для користувачів.

Які ризики створює штучний інтелект?

інтелект

Закон про штучний інтелект пропонує таку класифікацію ризиків, які створює штучний інтелект.

Неприйнятний ризик

Неприйнятний ризик – системи ШІ з неприйнятним ризиком – це ті, які вважаються ризиком для людей і будуть заборонені. До них відносяться:

  • Когнітивне маніпулювання поведінкою людей або окремих вразливих груп: наприклад, іграшки з голосовим управлінням, які заохочують дітей до небезпечної поведінки;
  • Соціальне оцінювання: класифікація людей на основі поведінки, соціально-економічного статусу або особистих характеристик;
  • Системи біометричної ідентифікації в режимі реального часу та віддаленої ідентифікації, наприклад, розпізнавання обличчя.

Можливо, будуть дозволені винятки, наприклад, системи віддаленої біометричної ідентифікації "після", в яких ідентифікація відбувається зі значною затримкою, будуть дозволені для переслідування серйозних злочинів, але тільки після судового дозволу.

Високий ризик

Високий ризик – системи штучного інтелекту, які негативно впливають на безпеку або фундаментальні права, вважатимуться високоризиковими і поділятимуться на дві категорії:

1) Системи штучного інтелекту, що використовуються в продуктах, на які поширюється законодавство ЄС про безпеку продукції. Сюди входять іграшки, авіація, автомобілі, медичні пристрої та ліфти.

2) Системи штучного інтелекту, що належать до восьми конкретних сфер, які повинні бути зареєстровані в базі даних ЄС:

  • біометрична ідентифікація та категоризація осіб;
  • управління та експлуатація критичної інфраструктури;
  • освіта та професійна підготовка;
  • зайнятість, управління трудовими ресурсами та доступ до самозайнятості;
  • доступ до основних приватних і державних послуг та користування ними;
  • правоохоронна діяльність;
  • управління міграцією, наданням притулку та прикордонним контролем;
  • допомога у тлумаченні та застосуванні законодавства.

Усі системи штучного інтелекту з високим ступенем ризику будуть оцінюватися перед виходом на ринок і протягом усього їхнього життєвого циклу.

Обмежений ризик

Системи ШІ з обмеженим ризиком повинні відповідати мінімальним вимогам прозорості, що дозволить користувачам приймати обґрунтовані рішення. Після взаємодії з додатками користувачі можуть вирішити, чи хочуть вони продовжувати їх використовувати. Користувачі повинні усвідомлювати, коли вони взаємодіють зі штучним інтелектом. Це стосується систем штучного інтелекту, які генерують або маніпулюють графічним, аудіо- чи відеоконтентом, наприклад, deepfake.

Вимоги до генеративного штучного інтелекту

Генеративний штучний інтелект, такий як ChatGPT, повинен відповідати вимогам прозорості:

  • Розкриття інформації про те, що контент був згенерований штучним інтелектом;
  • Розробка моделі таким чином, щоб запобігти створенню незаконного контенту;
  • Публікація резюме захищених авторським правом даних, використаних для навчання.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В этот день 16 июня

2025

2024

2023