Чи обмежить закон розвиток штучного інтелекту?

Эта статья доступна на русском языке
штучний інтелект
Джерело фото: Cottonbro Studio/Pexels

Оскільки генеративний штучний інтелект (ШІ) починає революціонізувати промисловість і технології, уряди в усьому світі намагаються розробити нормативно-правові акти, які дозволять скористатися його перевагами, але мінімізувати ризики.

Із запуском ChatGPT наприкінці 2022 року почала стрімко зростати кількість повідомлень про використання механізмів генеративного штучного інтелекту в практичних додатках. Інструменти, розроблені OpenAI, стали широко доступними онлайн завдяки Microsoft. І це лише початок, адже подібні сервіси вже представила компанія Google, а інші компанії також планують це зробити.

Рекомендуємо прочитати:

12 норвезьких міністерств стали жертвами хакерів

Google програв справу щодо патенту на Chromecast у США. На кону 338,7 млн доларів США

Twitter тепер офіційно має новий логотип

Водночас зростає занепокоєння щодо можливості неетичного використання технології, наприклад, для генерування неправдивої інформації, яка виглядає дуже правдоподібно, надання користувачам сумнівних з етичної точки зору пропозицій або дій, що порушують авторські права та інтелектуальну власність.

Саме тому Інститут майбутнього життя опублікував відкритий лист із закликом призупинити розробку ChatGPT на деякий час. У листі, який наразі підписали понад 31 000 осіб, підкреслюється, що потужні системи штучного інтелекту слід розробляти лише в тому випадку, якщо їхні ризики можна контролювати. "Чи повинні ми розвивати нелюдський розум і штучний інтелект, який може в кінцевому підсумку домінувати, перехитрити і замінити нас? Чи варто нам ризикувати втратою контролю над нашою цивілізацією?" – запитують автори листа.

Інша неприбуткова організація, Центр безпеки штучного інтелекту, опублікувала схожий відкритий лист, в якому стверджує, що штучний інтелект становить глобальний ризик вимирання людства нарівні з пандеміями та ядерною війною. Серед підписантів – низка науковців і менеджерів у галузі ШІ.

Як наслідок, у багатьох країнах з'явилися ініціативи щодо законодавчого врегулювання правил і вимог, яких мають дотримуватися розробники та постачальники інструментів і алгоритмів штучного інтелекту.

Загрози, які ми вже бачимо

штучний інтелект

Генеративний штучний інтелект – це загальний термін для позначення автоматизованих процесів, які використовують алгоритми для створення, маніпулювання або синтезу даних. В результаті створюються зображення, тексти або інші об'єкти, які раніше не існували. Термін "генеративний" походить з біології, де він використовується для позначення репродукції.

Його поява у суспільному надбанні дозволила людям, які раніше не мали легкого доступу до такої технології, створювати передовий контент практично на будь-яку тему. Попередження про небезпеки, пов'язані з розвитком штучного інтелекту, лунають уже кілька років, але лише нещодавно вони набули широкого розголосу. Наразі це не просто футуристичні прогнози, а цілком реальна загроза.

Експерти вказують на здатність генеративного штучного інтелекту посилювати кібератаки, можливість порушення авторських прав, конфіденційності даних, поширення дезінформації та дій, що призводять до дискримінації, оскільки люди можуть кодувати в алгоритми власні упередження. Основною загрозою для суспільства є легкість, з якою може бути створений контент, що містить неправдиву інформацію.

У березні цього року Goldman Sachs опублікував звіт, згідно з яким генеративний штучний інтелект і його здатність автоматизувати завдання можуть призвести до зникнення 300 мільйонів робочих місць у всьому світі. А згідно зі звітом Bloomberg, три з 10 офісних робочих місць будуть замінені штучним інтелектом протягом п'яти років.

Але чи не найбільшою причиною для занепокоєння може бути те, що генеративний ШІ використовує механізми самонавчання, що робить його дедалі потужнішим у міру того, як він отримує дані, а його творці не знають, що саме відбувається в системі. Звідси виникають радикальні погляди, що людство може бути лише перехідним етапом в еволюції, і що системи штучного інтелекту можуть почати розвиватися і переслідувати свої власні цілі, про які люди наразі нічого не знають.

Чи можна буде контролювати розвиток технології

Деякі уряди та організації, такі як Європейський Союз, почали готувати законодавство для запобігання негативним наслідкам використання штучного інтелекту та створення основи для забезпечення контролю над розвитком цієї технології.

Існують різні підходи до такого регулювання через відмінності в політиці, етиці та культурі суспільств. У США, наприклад, існує небажання надмірно регулювати, тоді як у Європі набагато сильніше переконання, що навіть обмежувальне законодавство є корисним для загального блага.

У випадку регулювання, пов'язаного з технологіями, хоча майже кожна країна може встановлювати свої власні правила, до цього часу спостерігалася певна гармонізація регулювання переважно між США, Європейським Союзом та більшістю інших західних країн. Рідко траплялися випадки, коли якийсь елемент регулювання суперечив законодавству інших країн. Чи вдасться зберегти таку відповідність у випадку зі штучним інтелектом?

Що стосується регулювання, то США, схоже, все ще перебувають на стадії встановлення фактів щодо потенційних ризиків ШІ, і поки що важко передбачити, коли в цій країні з'явиться відповідне регулювання.

З іншого боку, в Європейській комісії перші дискусії щодо регуляторного закону про ШІ розпочалися у 2019 році. Відтоді було опубліковано перший проєкт "яйця", який містить вимоги до генеративних моделей ШІ щодо пом'якшення передбачуваних ризиків для здоров'я, безпеки, фундаментальних прав, навколишнього середовища, а також демократії та верховенства права.

Запропоноване законодавство забороняє використання штучного інтелекту, коли він може становити загрозу безпеці, джерелам існування або правам людини. Однак рівень обмежень на використання технології залежить від ризику, який вона може становити для тих, хто з нею контактує. Європейський закон навряд чи набуде чинності до 2026 року.

Уряд Великобританії, з іншого боку, оголосив, що не хоче стримувати інновації і тому має намір запровадити правила, які значною мірою ґрунтуються на існуючому законодавстві і є менш суворими, ніж запланований Закон ЄС про штучний інтелект. Це має дати Великобританії конкурентну перевагу, але, швидше за все, за рахунок рівня захисту даних.

Першою країною у світі, де вже діє законодавство у сфері штучного інтелекту, є Китай. Згідно з чинним законодавством, компанії-розробники ШІ зобов'язані надавати оцінку безпеки уряду ще до того, як інструменти стануть доступними для громадськості, а будь-який контент, створений генеративним ШІ, повинен відповідати "основним цінностям" країни. Невиконання цих вимог карається штрафами, призупиненням надання послуг або кримінальним переслідуванням. Китайське законодавство зазнало значної критики як таке, що повністю не відповідає стандартам західних країн.

Яким би не було остаточне законодавство, важливо діяти вже зараз, адже з розвитком технологій ми можемо не виграти битву проти загроз, пов'язаних із використанням штучного інтелекту в зловмисних цілях.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В этот день 25 июля

2025

2024

2023