Після нещодавніх подій у керівництві компанії OpenAI її рада директорів отримала право блокувати випуск нейромереж, що викликають побоювання щодо безпеки. Це рішення покликане мінімізувати ризики завдання шкоди суспільству або окремим людям.
Експерти оцінюватимуть рівень загрози
Для оцінки потенційних ризиків створено спеціальну групу під керівництвом Александра Мадрі. Її завдання – аналізувати готові до випуску нейромережі на предмет виявлення чинників, здатних призвести до масштабного матеріального збитку або навіть людських жертв.
Результати перевірок будуть регулярно доводитися до відома ради з безпеки та керівництва OpenAI. Нейромережі отримають одну з чотирьох градацій ризику: низьку, середню, високу або критичну. Тільки моделі з низьким і середнім рівнем зможуть надійти на ринок.
Право вето у ради директорів
Навіть якщо гендиректор Сем Альтман ухвалить рішення про випуск потенційно небезпечної нейромережі, рада директорів може заблокувати його, наклавши вето. Це нововведення покликане підвищити безпеку продуктів OpenAI.
У компанії сподіваються, що їхній підхід до управління ризиками переймуть й інші гравці цього високотехнологічного ринку. Це дасть змогу уникнути не тільки фінансових втрат, а й загроз життю та здоров'ю людей від впровадження нових технологій.











