Ограничит ли закон развитие искусственного интеллекта?

Ця стаття доступна українською мовою
штучний інтелект
Источник фото: Cottonbro Studio/Pexels

Поскольку генеративный искусственный интеллект (ИИ) начинает революционизировать промышленность и технологии, правительства во всем мире пытаются разработать нормативно-правовые акты, которые позволят воспользоваться его преимуществами, но минимизировать риски.

С запуском ChatGPT в конце 2022 года начало стремительно расти количество сообщений об использовании механизмов генеративного искусственного интеллекта в практических приложениях. Инструменты, разработанные OpenAI, стали широко доступными онлайн благодаря Microsoft. И это только начало, ведь подобные сервисы уже представила компания Google, а другие компании также планируют это сделать.

В то же время растет беспокойство относительно возможности неэтичного использования технологии, например, для генерирования ложной информации, которая выглядит очень правдоподобно, предоставления пользователям сомнительных с этической точки зрения предложений или действий, нарушающих авторские права и интеллектуальную собственность.

Именно поэтому Институт будущей жизни опубликовал открытое письмо с призывом приостановить разработку ChatGPT на некоторое время. В письме, которое на данный момент подписали более 31 000 человек, подчеркивается, что мощные системы искусственного интеллекта следует разрабатывать только в том случае, если их риски можно контролировать. "Должны ли мы развивать нечеловеческий разум и искусственный интеллект, который может в конечном итоге доминировать, перехитрить и заменить нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?" – спрашивают авторы письма.

Другая неприбыльная организация, Центр безопасности искусственного интеллекта, опубликовала похожее открытое письмо, в котором утверждает, что искусственный интеллект представляет глобальный риск вымирания человечества наравне с пандемиями и ядерной войной. Среди подписантов – ряд ученых и менеджеров в области ИИ.

Как следствие, во многих странах появились инициативы по законодательному урегулированию правил и требований, которые должны соблюдать разработчики и поставщики инструментов и алгоритмов искусственного интеллекта.

Угрозы, которые мы уже видим

штучний інтелект

Генеративный искусственный интеллект – это общий термин для обозначения автоматизированных процессов, которые используют алгоритмы для создания, манипулирования или синтеза данных. В результате создаются изображения, тексты или другие объекты, которые ранее не существовали. Термин "генеративный" происходит из биологии, где он используется для обозначения репродукции.

Его появление в общественном достоянии позволило людям, которые ранее не имели легкого доступа к такой технологии, создавать передовой контент практически на любую тему. Предупреждения об опасностях, связанных с развитием искусственного интеллекта, звучат уже несколько лет, но лишь недавно они получили широкую огласку. Сейчас это не просто футуристические прогнозы, а вполне реальная угроза.

Эксперты указывают на способность генеративного искусственного интеллекта усиливать кибератаки, возможность нарушения авторских прав, конфиденциальности данных, распространения дезинформации и действий, приводящих к дискриминации, поскольку люди могут кодировать в алгоритмы собственные предубеждения. Основной угрозой для общества является легкость, с которой может быть создан контент, содержащий ложную информацию.

В марте этого года Goldman Sachs опубликовал отчет, согласно которому генеративный искусственный интеллект и его способность автоматизировать задачи могут привести к исчезновению 300 миллионов рабочих мест во всем мире. А согласно отчету Bloomberg, три из 10 офисных рабочих мест будут заменены искусственным интеллектом в течение пяти лет.

Но едва ли не самой большой причиной для беспокойства может быть то, что генеративный ИИ использует механизмы самообучения, что делает его все более мощным по мере того, как он получает данные, а его создатели не знают, что именно происходит в системе. Отсюда возникают радикальные взгляды, что человечество может быть лишь переходным этапом в эволюции, и что системы искусственного интеллекта могут начать развиваться и преследовать свои собственные цели, о которых люди пока ничего не знают.

Можно ли будет контролировать развитие технологии

Некоторые правительства и организации, такие как Европейский Союз, начали готовить законодательство для предотвращения негативных последствий использования искусственного интеллекта и создания основы для обеспечения контроля над развитием этой технологии.

Существуют разные подходы к такому регулированию из-за различий в политике, этике и культуре обществ. В США, например, существует нежелание чрезмерно регулировать, тогда как в Европе гораздо сильнее убеждение, что даже ограничительное законодательство является полезным для общего блага.

В случае регулирования, связанного с технологиями, хотя почти каждая страна может устанавливать свои собственные правила, до сих пор наблюдалась определенная гармонизация регулирования преимущественно между США, Европейским Союзом и большинством других западных стран. Редко бывали случаи, когда какой-то элемент регулирования противоречил законодательству других стран. Удастся ли сохранить такое соответствие в случае с искусственным интеллектом?

Что касается регулирования, то США, похоже, все еще находятся на стадии установления фактов относительно потенциальных рисков ИИ, и пока трудно предсказать, когда в этой стране появится соответствующее регулирование.

С другой стороны, в Европейской комиссии первые дискуссии по регуляторному закону об ИИ начались в 2019 году. С тех пор был опубликован первый проект "яйца", который содержит требования к генеративным моделям ИИ по смягчению предполагаемых рисков для здоровья, безопасности, фундаментальных прав, окружающей среды, а также демократии и верховенства права.

Предложенное законодательство запрещает использование искусственного интеллекта, когда он может представлять угрозу безопасности, источникам существования или правам человека. Однако уровень ограничений на использование технологии зависит от риска, который она может представлять для тех, кто с ней контактирует. Европейский закон вряд ли вступит в силу до 2026 года.

Правительство Великобритании, с другой стороны, объявило, что не хочет сдерживать инновации и поэтому намерено ввести правила, которые в значительной степени основываются на существующем законодательстве и являются менее строгими, чем запланированный Закон ЕС об искусственном интеллекте. Это должно дать Великобритании конкурентное преимущество, но, скорее всего, за счет уровня защиты данных.

Первой страной в мире, где уже действует законодательство в сфере искусственного интеллекта, является Китай. Согласно действующему законодательству, компании-разработчики ИИ обязаны предоставлять оценку безопасности правительству еще до того, как инструменты станут доступными для общественности, а любой контент, созданный генеративным ИИ, должен соответствовать "основным ценностям" страны. Невыполнение этих требований карается штрафами, приостановлением предоставления услуг или уголовным преследованием. Китайское законодательство подверглось значительной критике как полностью не соответствующее стандартам западных стран.

Каким бы ни было окончательное законодательство, важно действовать уже сейчас, ведь с развитием технологий мы можем не выиграть битву против угроз, связанных с использованием искусственного интеллекта в злонамеренных целях.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В этот день 25 июля

2025

2024

2023