Чи чекає нас Дикий Захід штучного інтелекту?

Эта статья доступна на русском языке
chatgpt

Професор Олександр Вайз, вчений-комп'ютерник і керівник Центру розгорнутого машинного навчання в Массачусетському технологічному інституті, який працює над темою інтелекту, дав інтерв'ю PAP. "Я не думаю, що корисно турбуватися про сценарій прямо з фільму "Термінатор", але ми бачимо, що поточного розвитку штучного інтелекту достатньо, щоб зробити революцію в світі". Алекс". Однак він попереджає, що залишення світу ШІ нерегульованим, як на Дикому Заході, може мати далекосяжні наслідки.

У березні понад тисячу інвесторів, дослідників і експертів у галузі ШІ підписали відкритий лист, у якому закликали зупинити розробку найсучасніших моделей ШІ. Автори листа підкреслили як короткострокові, так і приземлені ризики нестримної гонки за все більш потужними моделями ШІ, такі як потенційна масова втрата робочих місць і потік дезінформації, а також "заміна людей машинами" і навіть "втрата контролю над цивілізацією".

Професор Вайз: набагато більш нагальні проблеми, ніж "суперінтелект" AGI

штучний інтелект

Професор Вайз вважає, що хоча проблемою небезпеки "суперінтелекту" або AGI (загального штучного інтелекту) займаються серйозні та відомі люди, наразі це все ще далека перспектива. А поки що є набагато більш нагальні проблеми. "Я не хочу вдавати із себе ясновидця, тому що в минулому я помилявся щодо того, як швидко розвивається ця технологія. Але я не думаю, що ми близькі до таких сценаріїв. Я думаю, що в короткостроковій перспективі ми побачимо дивовижні речі, деякі з яких будуть схожі на AGI, але технологічна сингулярність? Ми не близькі до цього. (...) Це, безумовно, можливе майбутнє, але я не думаю, що це найпродуктивніша річ для держави на даний момент", – сказав він в інтерв'ю PAP. Однак, як він зазначає, прогресу, який ми бачили до цього часу, достатньо, щоб змінити світ майже у всіх сферах. І він підкреслює, що його більше турбують більш приземлені наслідки широкого впровадження технології, такі як можливі упередження, що виникають через дані, на яких навчаються моделі ШІ, або використання ШІ для широкомасштабної дезінформації.

На думку Вайза, також викликає занепокоєння загальний брак прозорості щодо того, як працюють ці моделі та на чому вони ґрунтуються. Як він зазначає, їхні творці самі не можуть точно визначити, як великі мовні моделі (LLM), такі як ChatGPT, приходять до своїх рішень і відповідей. Ця проблема може ще більше ускладнитися, оскільки більш спеціалізовані моделі будуються на основі базових моделей, створюючи цілу екосистему і "ланцюжок поставок ШІ"" – додає дослідник.

Це пов'язано з тим, що взаємодія між різними системами ШІ є дуже малодослідженою сферою, і минулий досвід свідчить, що такі комбінації можуть призвести до непередбачуваних результатів. Як зазначає дослідник, така екосистема вже формується, і можна очікувати вибуху різноманітних застосувань ШІ. "Не зовсім зрозуміло, як виглядають ці взаємодії між різними моделями. Ми не можемо передбачити, як така модель може дати збій, як вона може поводитися, які у неї можуть бути "упередження"", і це може мати дуже специфічні наслідки, які важко виправити. "Може статися так, що вся ця композиція з різних моделей зробить якусь серйозну за своїми наслідками помилку, навіть якщо ці окремі компоненти окремо не зробили жодної. І тоді постане питання: хто за це відповідатиме?". При цьому професор зазначає, що якщо проблему "галюцинацій" і помилок таких моделей, як ChatGPT, можна поліпшити, то усунути їх може бути дуже складно.

У цьому контексті, додає він, занепокоєння викликав крок нинішнього лідера гонки ШІ, OpenAI, який вирішив покласти край моделі з відкритим вихідним кодом, випустивши свою останню модель GPT-4 і закривши доступ до внутрішніх даних програми для сторонніх дослідників.

"Ми повинні почати серйозно думати про те, якою може бути життєздатна модель відкриття цієї "чорної скриньки". Це може вимагати значних суспільних зусиль" – оцінює Вайз. Він додає, що брак знань і прозорості про те, як працюють моделі ШІ, призводить до їх антропоморфізації людьми, що є небезпечним.

Експерти зі штучного інтелекту можуть потрапити в когнітивну пастку, застерігає професор Вайз

штучний інтелект

Те, що в цю пастку можуть потрапити навіть експерти зі штучного інтелекту, показує випадок із тепер уже колишнім співробітником Google Блейком Лемуаном, який стверджував у ЗМІ, що створена компанією модель LaMDA досягла самоусвідомлення. "Якщо ми не бачимо, як щось працює, ми починаємо антропоморфізувати це, тому що може скластися враження, що ми розмовляємо з людиною. Я думаю, що це дуже небезпечна когнітивна помилка. Хоча в певному сенсі ми дійсно розмовляємо з людиною, тому що те, що випльовує модель, – це творчо перетасовані слова, які хтось уже говорив в інтернеті раніше. Варто пам'ятати, що ці машини говорять як людина, тому що це їхня робота – намагатися навчитися говорити як людина, спираючись на потужну базу даних і текстів" – пояснює професор Вайз. Він додає, що хоча LLM-моделі здатні "мислити", тобто доходити логічних висновків, це, як правило, неглибокі думки.

"Звичайно, ці інструменти неймовірно чудові. Я в захваті від них і мені подобається з ними працювати. Але нам потрібно перестати думати про них як про людей. Вони не мають свідомості", – наголошує науковець.

За його словами, існує кілька ризиків, пов'язаних з гонкою компаній, які розробляють системи штучного інтелекту. Він пояснює, що оскільки створення масштабних моделей штучного інтелекту вимагає багато ресурсів та інвестицій, це означає, що ключова сфера економіки та життя може опинитися в руках кількох великих гравців. "Я також думаю, що було б важливо подумати про те, чи повинен, наприклад, уряд США мати свою власну модель. Адже, зрештою, він не може покладатися на те, що завжди матиме у своєму розпорядженні моделі від OpenAI чи Google". Крім того, – стверджує дослідник, – якщо розробники систем будуть керуватися лише бізнес-логікою перегонів, нехтуючи етичними міркуваннями, ефект буде подібним до того, що ми спостерігаємо у випадку з соціальними мережами.

Він додає, що те ж саме стосується і суперництва між США та Китаєм, яке створює додатковий тиск для швидкого, хоча й не обов'язково добре продуманого, прогресу. "Мій аргумент полягає в тому, що якщо ми не створимо штучний інтелект, який відображатиме наші цінності, якщо відкинути питання етики та прав людини, ми вже програємо. Так, ми можемо перемогти Китай, але тоді ми самі станемо Китаєм. То що ж це за перемога?" – запитує експерт. І закликає до регулювання – починаючи з добровільного застосування кращих практик і діалогу, щоб уникнути помилок минулого. "Песимістичний сценарій полягає в тому, що нічого не буде зроблено: це буде як із соціальними мережами, робота яких полягає в максимізації прибутку без урахування ширших наслідків. Це буде такий собі Дикий Захід. Тому я маю бути оптимістом, бо якщо нічого не станеться, то буде дуже погано", – визнає професор.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В цей день 29 квітня

2025

2024

2023