Google створює правила для безпечної робототехніки

Эта статья доступна на русском языке
робот
Джерело фото: Image by Lukas from Pixabay

Компанія Google оголосила про розробку спеціального набору правил, які допоможуть запобігти небезпечній поведінці роботів. Ці "правила гри" для штучного інтелекту отримали назву "Конституція роботів".

Розробники пояснили, що нововведення змусить машин діяти обережно поряд з людьми. Адже останнім часом траплялися непоодинокі випадки, коли промислові роботи-маніпулятори травмували або навіть вбивали працівників заводів.

Правила безпеки для розумних машин

"Конституція" містить конкретні обмеження для штучного інтелекту. Наприклад, забороняє роботам виконувати завдання, пов'язані з людьми, тваринами чи гострими предметами.

Також передбачено функцію автоматичної зупинки роботів, якщо навантаження на їхні суглоби перевищує безпечний рівень. Ще один механізм безпеки – фізичний вимикач, за допомогою якого оператори можуть терміново відключити машин, якщо ті починають загрожувати людям.

За словами розробників, правила для штучного інтелекту походять з "Трьох законів робототехніки" відомого фантаста Айзека Азімова. Головний принцип там такий: робот не може зашкодити людині. Саме цей постулат і намагалися реалізувати в Google.

Як працює нова система

"Конституція роботів" вбудована в платформу AutoRT – програмне рішення для автономних машин. Воно дозволяє роботам аналізувати оточення, приймати рішення і виконувати фізичні завдання.

AutoRT використовує дві нейромережі: одна розпізнає зображення з камер, а інша на їх основі пропонує можливі дії для робота. Саме на цьому етапі і задіяна "Конституція", яка фільтрує небезпечні чи заборонені варіанти.

Перші випробування нової системи Google провела в чотирьох своїх офісах. За сім місяців 53 робота зі штучним інтелектом AutoRT виконали понад 77 тисяч завдань, не зашкодивши жодній людині. Такі результати вселяють оптимізм, що нові правила безпеки для машин справді ефективні.

Теги: google

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В этот день 09 января

2025

2024

2023