
Цього тижня понад 1000 людей зі світу інформаційних технологій підписали відкритого листа, в якому закликали призупинити розвиток технології штучного інтелекту на найближчі кілька місяців. Автори вважають, що за цей час мають бути розроблені чіткі правила, які гарантуватимуть, що технологія не вийде з-під контролю людства.
Штучний інтелект розвивається неконтрольовано
Інтерес до штучного інтелекту сягнув безпрецедентного рівня: майже щодня у відкритому доступі з'являються нові програми для ШІ. У петиції йдеться про відсутність планування, коли справа доходить до впровадження передових моделей ШІ, і про те, що вона називає ніким не контрольованою гонкою. Таким чином, майже щодня на наших очах розробляються нові АІ-системи, які самі розробники не до кінця розуміють і важко передбачити, до чого це все призведе.
Рекомендуємо прочитати: ТОП-10 фільмів про штучний інтелект до перегляду на цих вихідних
Хто підписав петицію?
Лист підписала низка гучних імен зі світу ІТ, серед яких Ілон Маск та Стів Возняк, співзасновник компанії Apple. Цікаво і показово, що підпис Сема Альтмана, генерального директора OpenAI, під петицією відсутній. У листі, опублікованому некомерційною організацією Future of Life Institute, підписанти петиції закликають лабораторії штучного інтелекту припинити розробку нових версій технології, навіть більш потужних, ніж та, що розроблена OpenAI. Вони також вважають, що національні уряди повинні прийняти мораторій на розвиток ШІ, поки не буде прийнято відповідний закон, який регулюватиме цю сферу.
У петиції перераховані потенційні загрози для людства і суспільства від ШІ, зокрема можливість поширення дезінформації та широка автоматизація робочих місць. У листі міститься заклик до АІ-компаній створити та впровадити спеціальні протоколи безпеки, які б контролювали АІ та постійно контролювалися незалежними експертами.
Запропонована в петиції пауза в розробці ШІ дасть лабораторіям і незалежним експертам час на розробку протоколів безпеки для просунутого дизайну ШІ, що зробить системи ШІ більш точними, безпечними, передбачуваними і надійними.
Небезпека полягає в тому, що запуск чат-бота OpenAI підштовхнув низку інших компаній до впровадження власних рішень такого типу. Тому розвиток технології ШІ відбувається хаотично, і ніхто не знає, куди він нас приведе.