OpenAI ужесточает контроль за безопасностью нейросетей

Ця стаття доступна українською мовою
openai
Источник фото: Photo by Andrew Neel on Unsplash

После недавних событий в руководстве компании OpenAI её совет директоров получил право блокировать выпуск нейросетей, вызывающих опасения относительно безопасности. Это решение призвано минимизировать риски нанесения ущерба обществу или отдельным людям. 

Эксперты будут оценивать уровень угрозы

Для оценки потенциальных рисков создана специальная группа под руководством Александра Мадри. Её задача – анализировать готовые к выпуску нейросети на предмет выявления факторов, способных привести к масштабному материальному ущербу или даже человеческим жертвам.

Результаты проверок будут регулярно доводиться до сведения совета по безопасности и руководства OpenAI. Нейросети получат одну из четырёх градаций риска: низкую, среднюю, высокую или критическую. Только модели с низким и средним уровнем смогут поступить на рынок.

Право вето у совета директоров

Даже если гендиректор Сэм Альтман примет решение о выпуске потенциально опасной нейросети, совет директоров может заблокировать его, наложив вето. Это нововведение призвано повысить безопасность продуктов OpenAI.

В компании надеются, что их подход к управлению рисками переймут и другие игроки этого высокотехнологичного рынка. Это позволит избежать не только финансовых потерь, но и угроз жизни и здоровью людей от внедрения новых технологий.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 20 грудня

2025

2024

2023