США та Китай роблять перші кроки до регулювання генеративного штучного інтелекту

Эта статья доступна на русском языке
штучний інтелект

Оскільки генеративний ШІ все більше поширюється в технологічній індустрії, уряди в усьому світі починають розглядати питання регулювання для боротьби з його потенціалом сприяння злочинності та упередженості.

Хоча США і Китай є запеклими конкурентами в торгівлі технологіями, у них, схоже, з'явилося щось нове: занепокоєння щодо відповідальності за штучний інтелект і можливе зловживання ним. У вівторок уряди обох країн оприлюднили комюніке щодо регулювання розвитку штучного інтелекту.

Національна адміністрація з телекомунікацій та інформації (NTIA), підрозділ Міністерства торгівлі США, опублікувала офіційний публічний запит про те, які політики повинні формувати екосистему відповідальності за ШІ. Серед питань, що стоять на кону, – доступ до даних, вимірювання підзвітності та те, як підходи до ШІ можуть відрізнятися в різних галузях, таких як працевлаштування або охорона здоров'я. Письмові коментарі у відповідь на пропозицію повинні бути отримані NTIA до 10 червня 2023 року, через 60 днів з дати публікації у Федеральному реєстрі.

Рекомендуємо прочитати: 

Китайське регулювання штучного інтелекту

штучний інтелект

Ця новина з'явилася в той самий день, коли Адміністрація кіберпростору Китаю (CAC) представила низку проєктів заходів щодо управління послугами генеративного ШІ, включаючи покладання на постачальників відповідальності за достовірність даних, що використовуються для навчання інструментів генеративного ШІ.

Згідно з повідомленням Reuters, CAC заявив, що постачальники повинні нести відповідальність за достовірність даних, які використовуються для навчання інструментів ШІ, і що необхідно вжити заходів для запобігання дискримінації при розробці алгоритмів і наборів даних для навчання. Компанії також будуть зобов'язані надавати оцінку безпеки уряду, перш ніж випускати свої інструменти ШІ для громадськості.

Якщо їхні платформи генерують неприйнятний контент, компанії повинні будуть оновити свої технології протягом трьох місяців, щоб запобігти повторному генеруванню подібного контенту, згідно з проектом правил. Невиконання вимог призведе до штрафу, призупинення надання послуг або кримінальних розслідувань.

Будь-який контент, створений генеративним ШІ, повинен відповідати основним соціалістичним цінностям країни, заявили в CAC.

Китайські технологічні гіганти вже активно працюють над розробкою ШІ. Заява CAC була зроблена в той самий день, коли Alibaba Cloud оголосила про нову мовну модель під назвою Tongyi Qianwen, яка буде розроблена як інтерфейс у стилі ChatGPT для всіх своїх бізнес-додатків. Минулого місяця інший китайський гігант веб-сервісів і штучного інтелекту, Baidu, оголосив про китайськомовну альтернативу ChatGPT – бота Ernie.

Регулювання та інновації у сфері штучного інтелекту

штучний інтелект

У той час як уряд Китаю встановив чіткі правила регулювання, інші уряди в усьому світі дотримуються іншого підходу. У березні 2023 року уряд Великої Британії заявив, що для того, щоб "уникнути жорсткого регулювання, яке може придушити інновації", він вирішив не делегувати відповідальність за управління ШІ новому єдиному регулятору, натомість закликавши існуючі регуляторні органи розробити власні підходи, які найкраще відповідають способу використання ШІ в їхніх секторах.

Однак такий підхід був розкритикований деякими експертами галузі, які стверджують, що існуючі структури можуть бути не в змозі ефективно регулювати ШІ через складну і багаторівневу природу деяких інструментів ШІ, а це означає, що комбінація різних систем буде неминучою.

Крім того, британський регулятор з питань захисту даних видав попередження технологічним компаніям щодо захисту персональних даних при розробці та розгортанні моделей ШІ з великим лінгвістичним і генеративним охопленням, а італійський регулятор з питань захисту даних заборонив ChatGPT через ймовірні порушення приватності. Група з 1100 технологічних лідерів і дослідників також закликала до шестимісячної паузи в розробці систем, потужніших за нещодавно випущений OpenAI ChatGPT-4.

Коли йдеться про технологічні інновації та регулювання, існує певний природний шлях, яким зазвичай йдуть уряди або законодавці, сказав Френк Буйтендейк, аналітик Gartner.

"Коли на ринку з'являється нова технологія, ми вчимося використовувати її відповідально, роблячи помилки" – сказав він. "Це те, що ми зараз робимо зі штучним інтелектом". Після цього, за словами Буйтендейка, починають з'являтися нормативні акти, які дозволяють розробникам, користувачам і правовим системам дізнатися про відповідальне використання через інтерпретацію закону і прецедентне право, а потім настає завершальний етап, коли з'являються технології, які мають вбудовану функцію відповідального використання. "Ми вчимося відповідальному використанню через ці вбудовані кращі практики, тож це процес", – сказав пан Байтендейк.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В этот день 21 апреля

2025

2024

2023