
На этой неделе более 1000 человек из мира информационных технологий подписали открытое письмо, в котором призвали приостановить развитие технологии искусственного интеллекта на ближайшие несколько месяцев. Авторы считают, что за это время должны быть разработаны четкие правила, которые будут гарантировать, что технология не выйдет из-под контроля человечества.
Искусственный интеллект развивается неконтролируемо
Интерес к искусственному интеллекту достиг беспрецедентного уровня: почти ежедневно в открытом доступе появляются новые программы для ИИ. В петиции говорится об отсутствии планирования, когда дело доходит до внедрения передовых моделей ИИ, и о том, что она называет никем не контролируемой гонкой. Таким образом, почти ежедневно на наших глазах разрабатываются новые ИИ-системы, которые сами разработчики не до конца понимают и трудно предсказать, к чему это все приведет.
Рекомендуем прочитать: ТОП-10 фильмов про искусственный интеллект к просмотру на этих выходных
Кто подписал петицию?
Письмо подписал ряд громких имен из мира ИТ, среди которых Илон Маск и Стив Возняк, соучредитель компании Apple. Интересно и показательно, что подпись Сэма Альтмана, генерального директора OpenAI, под петицией отсутствует. В письме, опубликованном некоммерческой организацией Future of Life Institute, подписанты петиции призывают лаборатории искусственного интеллекта прекратить разработку новых версий технологии, даже более мощных, чем та, что разработана OpenAI. Они также считают, что национальные правительства должны принять мораторий на развитие ИИ, пока не будет принят соответствующий закон, регулирующий эту сферу.
В петиции перечислены потенциальные угрозы для человечества и общества от ИИ, в частности возможность распространения дезинформации и широкая автоматизация рабочих мест. В письме содержится призыв к ИИ-компаниям создать и внедрить специальные протоколы безопасности, которые бы контролировали ИИ и постоянно контролировались независимыми экспертами.
Предложенная в петиции пауза в разработке ИИ даст лабораториям и независимым экспертам время на разработку протоколов безопасности для продвинутого дизайна ИИ, что сделает системы ИИ более точными, безопасными, предсказуемыми и надежными.
Опасность заключается в том, что запуск чат-бота OpenAI подтолкнул ряд других компаний к внедрению собственных решений такого типа. Поэтому развитие технологии ИИ происходит хаотично, и никто не знает, куда он нас приведет.