"Восстание машин отменяется": Европарламент принял Закон об искусственном интеллекте

Ця стаття доступна українською мовою
робот

14 июня в ЕС был принят первый в мире комплексный закон об искусственном интеллекте. Он является частью цифровой стратегии ЕС. Его цель – создать лучшие условия для развития и использования этой инновационной технологии, а также защитить права и данные европейцев. Ожидается, что законодательство будет одобрено до конца этого года.

Последние несколько лет наблюдается чрезвычайно ускоренное развитие технологий искусственного интеллекта (прорыв произошел в 2017 году – запуск сети Transformer). В начале декабря прошлого года OpenAI изменил ситуацию, сделав генеративный искусственный интеллект – ChatGPT – доступным для всех и бесплатно. Мы знаем, что искусственный интеллект может принести много преимуществ, таких как лучшее здравоохранение, более безопасный и чистый транспорт, более эффективное производство, более дешевая и устойчивая энергия, уменьшение нашей рабочей нагрузки и т. Д. С другой стороны, неудивительно, что его потенциал также признали преступники и люди с плохими намерениями (есть способы причинить вред, не нарушая закон).

Как восприняли ChatGPT в разных странах

Реакция на ChatGPT была разной, а в Италии, например, он был запрещен. Одно из главных обвинений против чат-бота – нарушение авторских прав. В Польше исследователи из Вроцлавской политехники запустили проект Clarin-Pl, который является ответом на ChatGPT – планируется создание генеративного искусственного интеллекта, адаптированного к польскому языку. Microsoft, которая недавно представила решение genAI Copilot, подчеркивает внимание к этической и законопослушной стороне решений искусственного интеллекта.

Европейский парламент принял законопроект "Закон об искусственном интеллекте" 499 голосами "за" при 28 "против" (93 воздержались). Он отклонил поправки, предложенные в последнюю минуту Европейской народной партией (ЕНП), чтобы предоставить службам полномочия осуществлять биометрический надзор с помощью искусственного интеллекта (что-то вроде фильма "Особое мнение").

Искусственный интеллект не будет использоваться для репрессий людей

робот

Представители ЕНП хотели, чтобы можно было использовать системы распознавания лиц в реальном времени - например, для предотвращения террористических атак, а также для репрессий против людей на демонстрациях (с одной стороны, только в исключительных ситуациях, с другой – по административному решению, а значит, без разрешения суда). Европарламент не согласился на такие меры. Вспомним, сколько споров вызвали сообщения о том, что системы искусственного интеллекта по распознаванию лиц, используемые в Китае, тренируются на лицах репрессированного уйгурского меньшинства.

Европейский парламент также хочет установить технологически нейтральное, единое определение искусственного интеллекта, которое можно было бы применять к будущим системам искусственного интеллекта.

Законодательное определение искусственного интеллекта

В предисловии к Закону об искусственном интеллекте, принятому 14 июня, говорится: "Искусственный интеллект – это группа быстро развивающихся технологий: "Искусственный интеллект (ИИ) – это быстро развивающаяся группа технологий, которая может обеспечить широкий спектр социально-экономических преимуществ во всех отраслях и сферах общественной деятельности. Решения на основе искусственного интеллекта позволяют лучше прогнозировать, оптимизировать операции и распределение ресурсов, а также персонализировать предоставление услуг, что приводит к социальным и экологическим преимуществам и обеспечивает ключевое конкурентное преимущество для бизнеса и европейской экономики. Такие действия особенно необходимы в секторах с высоким уровнем влияния, в частности, в сфере изменения климата, экологии и здравоохранения, государственном секторе, финансах, мобильности, внутренних делах и сельском хозяйстве. 

Однако те же элементы и методы, которые приносят социально-экономические выгоды от использования искусственного интеллекта, одновременно влекут за собой новые риски или негативные последствия для отдельных лиц или общества. Учитывая темпы технологических изменений и в свете потенциальных вызовов, ЕС стремится выработать сбалансированный подход. В интересах Союза сохранить свое технологическое лидерство и обеспечить, чтобы европейцы могли пользоваться преимуществами новых технологий, разработанных и функционирующих в соответствии с ценностями, фундаментальными правами и принципами Союза".

Приоритетом парламента является обеспечение того, чтобы системы искусственного интеллекта, используемые в ЕС, были безопасными, прозрачными, отслеживаемыми, недискриминационными и экологически чистыми. Чтобы предотвратить вредные последствия, системы искусственного интеллекта должны контролироваться людьми, а не автоматикой.

Теперь в Совете ЕС начнутся дискуссии со странами ЕС относительно окончательного вида закона до того, как он вступит в силу. Цель – достичь соглашения до конца этого года. Конечно, еще предстоит увидеть, как Польша решит этот вопрос. Вот как профессор Томаш Тшцинский из IDEAS NCBR комментирует правила ЕС: "Регулирование "скоростного поезда" имеет то преимущество, что мы минимизируем риск его аварии, но, с другой стороны, он будет двигаться медленнее, чем конкурирующие сообщения. Мне кажется, что направление хорошее, но риск замедления развития ИИ в Европе является значительным, и оба эти фактора необходимо учитывать при введении возможных правил. Очевидно также, что ЕС не намерен регулировать все раз и навсегда, поскольку хочет создать Европейский орган по искусственному интеллекту, чтобы держать руку на пульсе развития этой технологии. Я надеюсь, что он не станет "полицией ИИ", поскольку такая функция была бы просто невозможной – доступ к моделям и данным слишком распылен. Разумный сценарий заключается в том, чтобы офис действовал как аналитический центр, который является консультативным органом для правительств".

Уже более двух лет назад, в апреле 2021 года. Европейская комиссия предложила первую в ЕС нормативную базу для искусственного интеллекта. Согласно ей, системы искусственного интеллекта, которые могут использоваться в различных приложениях, анализируются и классифицируются в соответствии с уровнем риска, который они представляют для пользователей.

Какие риски создает искусственный интеллект?

інтелект

Закон об искусственном интеллекте предлагает такую классификацию рисков, которые создает искусственный интеллект.

Неприемлемый риск

Неприемлемый риск – системы ИИ с неприемлемым риском - это те, которые считаются риском для людей и будут запрещены. К ним относятся:

  • Когнитивное манипулирование поведением людей или отдельных уязвимых групп: например, игрушки с голосовым управлением, которые поощряют детей к опасному поведению;
  • Социальная оценка: классификация людей на основе поведения, социально-экономического статуса или личных характеристик;
  • Системы биометрической идентификации в режиме реального времени и удаленной идентификации, например, распознавание лица.

Возможно, будут разрешены исключения, например, системы удаленной биометрической идентификации "после", в которых идентификация происходит со значительной задержкой, будут разрешены для преследования серьезных преступлений, но только после судебного разрешения.

Высокий риск

Высокий риск – системы искусственного интеллекта, которые негативно влияют на безопасность или фундаментальные права, будут считаться высокорисковыми и будут делиться на две категории:

1) Системы искусственного интеллекта, используемые в продуктах, на которые распространяется законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинские устройства и лифты.

2) Системы искусственного интеллекта, относящиеся к восьми конкретным сферам, которые должны быть зарегистрированы в базе данных ЕС:

  • биометрическая идентификация и категоризация лиц;
  • управление и эксплуатация критической инфраструктуры;
  • образование и профессиональная подготовка;
  • занятость, управление трудовыми ресурсами и доступ к самозанятости;
  • доступ к основным частным и государственным услугам и пользование ими;
  • правоохранительная деятельность;
  • управление миграцией, предоставлением убежища и пограничным контролем;
  • помощь в толковании и применении законодательства.

Все системы искусственного интеллекта с высокой степенью риска будут оцениваться перед выходом на рынок и на протяжении всего их жизненного цикла.

Ограниченный риск

Системы ИИ с ограниченным риском должны соответствовать минимальным требованиям прозрачности, что позволит пользователям принимать обоснованные решения. После взаимодействия с приложениями пользователи могут решить, хотят ли они продолжать их использовать. Пользователи должны осознавать, когда они взаимодействуют с искусственным интеллектом. Это касается систем искусственного интеллекта, которые генерируют или манипулируют графическим, аудио- или видеоконтентом, например, deepfake.

Требования к генеративному искусственному интеллекту

Генеративный искусственный интеллект, такой как ChatGPT, должен соответствовать требованиям прозрачности:

  • Раскрытие информации о том, что контент был сгенерирован искусственным интеллектом;
  • Разработка модели таким образом, чтобы предотвратить создание незаконного контента;
  • Публикация резюме защищенных авторским правом данных, использованных для обучения.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В этот день 16 июня

2025

2024

2023