Минулого тижня світила технологічного світу закликали лабораторії штучного інтелекту припинити навчання найпотужніших ШІ-систем щонайменше на шість місяців, посилаючись на "глибокі ризики для суспільства і людства".
Відкритий лист про призупинення розробки штучного інтелекту
У відкритому листі, який наразі підписали понад 2100 осіб, включаючи співзасновника Apple Стіва Возняка, технологічні лідери закликали лабораторію OpenAI, що базується в Сан-Франциско, припинити подальшу розробку алгоритму GPT-4 доти, доки не будуть запроваджені стандарти нагляду. Цю вимогу підтримали технологи, керівники, фінансові директори, аспіранти, психологи, лікарі, розробники програмного забезпечення та інженери, професори та вчителі державних шкіл з усього світу.
Рекомендуємо прочитати: Італійці не хочуть бота ChatGPT
Очікується, що GPT, який розшифровується як Генеративний попередньо навчений трансформатор, еволюціонує до GPT-5 – і ця версія буде Генеративним штучним інтелектом, або AGI. AGI – це ШІ, який може мислити самостійно, і алгоритм продовжуватиме розвиватися в геометричній прогресії.
За даними дослідницької групи Epoch, яка намагається спрогнозувати розвиток трансформативного ШІ, приблизно в 2016 році з'явилася тенденція до створення навчальних моделей ШІ, які були на два-три порядки більшими, ніж попередні системи. Ця тенденція збереглася.
За словами Хайме Севільї, директора Epoch, наразі не існує систем ШІ, більших за GPT-4 з точки зору навчальних обчислень. Але це зміниться.
Ентоні Агірре, професор фізики в Університеті Санта-Крус і віце-президент некомерційної організації Future of Life, яка опублікувала відкритий лист до розробників, сказав, що немає підстав вважати, що GPT-4 не буде продовжувати подвоювати свою обчислювальну потужність щороку.
Рекомендуємо прочитати: Midjourney: кінець безкоштовної ери
"Обчислення в найбільших масштабах збільшуються в розмірах приблизно в 2,5 рази на рік. Параметри GPT-4 не були розкриті OpenAI, але немає підстав вважати, що ця тенденція зупинилася або навіть сповільнилася, – сказав Аквіер. "Тільки самі лабораторії знають, які саме обчислення вони проводять, але тенденція незаперечна".
Що сказав Білл Гейтс про штучний інтелект AGI
У своєму блозі, що виходить раз на два тижні, 23 березня, співзасновник Microsoft Білл Гейтс проголосив AGI – здатний вивчати будь-яке завдання або предмет – "великою мрією комп'ютерної індустрії".
"AGI ще не існує – в комп'ютерній індустрії ведуться активні дебати про те, як його створити і чи можна його створити взагалі" – писав Гейтс. "Зараз, з появою машинного навчання і великої кількості обчислювальних потужностей, складний ШІ став реальністю, і він буде вдосконалюватися дуже швидко".
Мудду Судхакар, генеральний директор компанії Aisera, яка займається створенням ШІ для підприємств, сказав, що існує лише кілька компаній, які зосереджені на AGI, таких як OpenAI і DeepMind (за підтримки Google), хоча вони мають "величезні фінансові та технічні ресурси".
Рекомендуємо прочитати: ТОП-10 фільмів про штучний інтелект до перегляду на цих вихідних
Тим не менш, їм ще треба пройти довгий шлях, щоб дістатися до AGI.
"Існує так багато завдань, які системи штучного інтелекту не можуть виконувати, але які люди можуть виконувати природним чином, наприклад, міркування на основі здорового глузду, знання того, що таке факт, і розуміння абстрактних понять (таких як справедливість, політика і філософія)", – сказав Судхакар. "Для AGI має бути багато проривів та інновацій. Але в разі успіху, здається, що система значною мірою замінить людину".
"Це, безумовно, буде руйнівним, і потрібно буде встановити багато запобіжників, щоб запобігти повному контролю ШІ", – сказав Судхакар. "Але поки що це, ймовірно, в далекому майбутньому. Це більше з області наукової фантастики".
Не всі з цим погоджуються.
Користь штучного інтелекту
Технологія штучного інтелекту та чат-боти-помічники змінили і продовжуватимуть змінювати майже кожну галузь. Технології можуть підвищити продуктивність і взяти на себе повторювані завдання, дозволяючи працівникам зосередитися на більш важливих завданнях.
Наприклад, великі мовні моделі – алгоритми, на яких працюють чат-боти – можуть просіювати мільйони сповіщень, онлайн-чатів та електронних листів, знаходити фішингові веб-сайти та потенційно шкідливі виконувані файли. Чат-боти на основі моделей можуть писати есе, створювати маркетингові кампанії та пропонувати комп'ютерний код – і все це на основі простих користувацьких запитів (пропозицій).
Чат-боти на основі LLM – це процесори природної мови, які в основному передбачають наступні слова після запитання користувача. Отже, якщо користувач попросить чат-бота створити вірш про людину, яка сидить на пляжі в Нантакеті, штучний інтелект просто з'єднає разом слова, речення та абзаци, які є найкращими відповідями на основі попереднього навчання програмістів.
Рекомендуємо прочитати: Скільки електроенергії споживає штучний інтелект?
Однак ШІ також припускається очевидних помилок і може створювати абсурдні ситуації, коли механізми, що генерують наступні слова, сходять з рейок і видають химерні відповіді.
Штучний інтелект може виявитися неконтрольованим
Якщо ШІ на базі LLM з мільярдами регульованих параметрів може збитися зі шляху, то наскільки більшим буде ризик, коли ШІ більше не потребуватиме навчання з боку людини і зможе мислити самостійно? Відповідь дуже серйозна, вважає Авіва Літан, віце-президент і аналітик Gartner Research.
Літан вважає, що лабораторії з розробки ШІ мчать вперед з величезною швидкістю без будь-якого нагляду, що може призвести до того, що ШІ стане неконтрольованим.
"Лабораторії ШІ, каже він, мчать уперед, не створюючи належних інструментів для користувачів, які могли б контролювати те, що відбувається. Я думаю, що це відбувається набагато швидше, ніж будь-хто очікував" – сказав він.
Наразі занепокоєння викликає те, що технологія ШІ для використання корпораціями випускається без інструментів, необхідних користувачам для визначення того, чи генерує технологія точну або неточну інформацію.
"Зараз ми говоримо про всіх хороших персонажів, які мають всі ці інноваційні можливості, але лиходії теж мають їх" – сказав Літан. "Тому ми повинні мати системи контролю і знати, що є справжнім, а що синтетичним. І ми не можемо покладатися на виявлення, ми повинні мати автентифікацію контенту. Інакше дезінформація поширюватиметься як лісова пожежа".
Рекомендуємо прочитати: Скільки електроенергії споживає штучний інтелект?
Наприклад, цього тижня Microsoft запустила Security Copilot, який базується на великій мовній моделі GPT-4 OpenAI. Інструмент являє собою чат-бот зі штучним інтелектом для експертів з кібербезпеки, який допомагає їм швидко виявляти загрози і реагувати на них, а також краще розуміти загальний ландшафт загроз.
Проблема полягає в тому, що "ви, як користувач, повинні входити в систему і виявляти будь-які помилки, які вона робить", – сказав Літан. "Це неприйнятно. У них має бути якась система оцінювання, яка говорить, що цей результат, ймовірно, на 95% відповідає дійсності, тобто має 5% ймовірність помилки. А це має ймовірність помилки 10%. Вони не дають вам жодного уявлення про результати, щоб зрозуміти, чи можна їм довіряти, чи ні".
Більшою проблемою в найближчому майбутньому стане те, що розробник GPT-4, OpenAI, випустить версію з підтримкою AGI. На той момент може бути занадто пізно зупинити цю технологію.
Одне з можливих рішень, яке запропонував Літан, – випускати дві моделі для кожного інструменту генеративного ШІ: одну для генерації відповідей, а іншу – для перевірки точності першої.
"Це могло б зробити дійсно хорошу роботу, гарантуючи, що модель видає щось, чому можна довіряти", – сказав він. "Ви не можете очікувати, що людина буде переглядати весь цей контент і вирішувати, що є правдою, а що ні, але якщо ви дасте їй інші моделі, які перевіряють ... це дозволить користувачам контролювати продуктивність".
OpenAI перевіряла роботу ChatGPT, плативши найнятим працівникам 2 долари за годину
У 2022 році видання Time повідомило, що OpenAI найняла низькооплачуваних робітників у Кенії, щоб визначити, чи виробляє її GPT LLM безпечну інформацію. Як повідомляється, працівники, найняті компанією Sam, що базується в Сан-Франциско, отримували зарплату в розмірі 2 доларів на годину і повинні були відсіювати відповіді додатку GPT, "які були схильні до поширення насильницьких, сексистських і навіть расистських висловлювань".
Рекомендуємо прочитати: Як заробити за допомогою штучного інтелекту
"І так ви нас захищаєте? Платячи людям 2 долари за годину. Це абсолютно неефективно і абсолютно аморально" – сказав Літан.
"Розробники ШІ повинні працювати з політиками, і ці політики повинні, як мінімум, включати нових компетентних регуляторів" – продовжив Літан.
Шубхам Мішра, співзасновник і головний виконавчий директор стартапу Pixis, вважає, що, хоча прогрес у його галузі "не може і не повинен зупинятися", заклик зупинити розвиток ШІ є виправданим. Генеративний ШІ, за його словами, здатен заплутати маси, поширюючи пропагандистську або "важкодиференційовану" інформацію у відкритому доступі.