14 июня в ЕС был принят первый в мире комплексный закон об искусственном интеллекте. Он является частью цифровой стратегии ЕС. Его цель – создать лучшие условия для развития и использования этой инновационной технологии, а также защитить права и данные европейцев. Ожидается, что законодательство будет одобрено до конца этого года.
Последние несколько лет наблюдается чрезвычайно ускоренное развитие технологий искусственного интеллекта (прорыв произошел в 2017 году – запуск сети Transformer). В начале декабря прошлого года OpenAI изменил ситуацию, сделав генеративный искусственный интеллект – ChatGPT – доступным для всех и бесплатно. Мы знаем, что искусственный интеллект может принести много преимуществ, таких как лучшее здравоохранение, более безопасный и чистый транспорт, более эффективное производство, более дешевая и устойчивая энергия, уменьшение нашей рабочей нагрузки и т. Д. С другой стороны, неудивительно, что его потенциал также признали преступники и люди с плохими намерениями (есть способы причинить вред, не нарушая закон).
Как восприняли ChatGPT в разных странах
Реакция на ChatGPT была разной, а в Италии, например, он был запрещен. Одно из главных обвинений против чат-бота – нарушение авторских прав. В Польше исследователи из Вроцлавской политехники запустили проект Clarin-Pl, который является ответом на ChatGPT – планируется создание генеративного искусственного интеллекта, адаптированного к польскому языку. Microsoft, которая недавно представила решение genAI Copilot, подчеркивает внимание к этической и законопослушной стороне решений искусственного интеллекта.
Европейский парламент принял законопроект "Закон об искусственном интеллекте" 499 голосами "за" при 28 "против" (93 воздержались). Он отклонил поправки, предложенные в последнюю минуту Европейской народной партией (ЕНП), чтобы предоставить службам полномочия осуществлять биометрический надзор с помощью искусственного интеллекта (что-то вроде фильма "Особое мнение").
Искусственный интеллект не будет использоваться для репрессий людей
Представители ЕНП хотели, чтобы можно было использовать системы распознавания лиц в реальном времени - например, для предотвращения террористических атак, а также для репрессий против людей на демонстрациях (с одной стороны, только в исключительных ситуациях, с другой – по административному решению, а значит, без разрешения суда). Европарламент не согласился на такие меры. Вспомним, сколько споров вызвали сообщения о том, что системы искусственного интеллекта по распознаванию лиц, используемые в Китае, тренируются на лицах репрессированного уйгурского меньшинства.
Европейский парламент также хочет установить технологически нейтральное, единое определение искусственного интеллекта, которое можно было бы применять к будущим системам искусственного интеллекта.
Законодательное определение искусственного интеллекта
В предисловии к Закону об искусственном интеллекте, принятому 14 июня, говорится: "Искусственный интеллект – это группа быстро развивающихся технологий: "Искусственный интеллект (ИИ) – это быстро развивающаяся группа технологий, которая может обеспечить широкий спектр социально-экономических преимуществ во всех отраслях и сферах общественной деятельности. Решения на основе искусственного интеллекта позволяют лучше прогнозировать, оптимизировать операции и распределение ресурсов, а также персонализировать предоставление услуг, что приводит к социальным и экологическим преимуществам и обеспечивает ключевое конкурентное преимущество для бизнеса и европейской экономики. Такие действия особенно необходимы в секторах с высоким уровнем влияния, в частности, в сфере изменения климата, экологии и здравоохранения, государственном секторе, финансах, мобильности, внутренних делах и сельском хозяйстве.
Однако те же элементы и методы, которые приносят социально-экономические выгоды от использования искусственного интеллекта, одновременно влекут за собой новые риски или негативные последствия для отдельных лиц или общества. Учитывая темпы технологических изменений и в свете потенциальных вызовов, ЕС стремится выработать сбалансированный подход. В интересах Союза сохранить свое технологическое лидерство и обеспечить, чтобы европейцы могли пользоваться преимуществами новых технологий, разработанных и функционирующих в соответствии с ценностями, фундаментальными правами и принципами Союза".
Приоритетом парламента является обеспечение того, чтобы системы искусственного интеллекта, используемые в ЕС, были безопасными, прозрачными, отслеживаемыми, недискриминационными и экологически чистыми. Чтобы предотвратить вредные последствия, системы искусственного интеллекта должны контролироваться людьми, а не автоматикой.
Теперь в Совете ЕС начнутся дискуссии со странами ЕС относительно окончательного вида закона до того, как он вступит в силу. Цель – достичь соглашения до конца этого года. Конечно, еще предстоит увидеть, как Польша решит этот вопрос. Вот как профессор Томаш Тшцинский из IDEAS NCBR комментирует правила ЕС: "Регулирование "скоростного поезда" имеет то преимущество, что мы минимизируем риск его аварии, но, с другой стороны, он будет двигаться медленнее, чем конкурирующие сообщения. Мне кажется, что направление хорошее, но риск замедления развития ИИ в Европе является значительным, и оба эти фактора необходимо учитывать при введении возможных правил. Очевидно также, что ЕС не намерен регулировать все раз и навсегда, поскольку хочет создать Европейский орган по искусственному интеллекту, чтобы держать руку на пульсе развития этой технологии. Я надеюсь, что он не станет "полицией ИИ", поскольку такая функция была бы просто невозможной – доступ к моделям и данным слишком распылен. Разумный сценарий заключается в том, чтобы офис действовал как аналитический центр, который является консультативным органом для правительств".
Уже более двух лет назад, в апреле 2021 года. Европейская комиссия предложила первую в ЕС нормативную базу для искусственного интеллекта. Согласно ей, системы искусственного интеллекта, которые могут использоваться в различных приложениях, анализируются и классифицируются в соответствии с уровнем риска, который они представляют для пользователей.
Какие риски создает искусственный интеллект?
Закон об искусственном интеллекте предлагает такую классификацию рисков, которые создает искусственный интеллект.
Неприемлемый риск
Неприемлемый риск – системы ИИ с неприемлемым риском - это те, которые считаются риском для людей и будут запрещены. К ним относятся:
- Когнитивное манипулирование поведением людей или отдельных уязвимых групп: например, игрушки с голосовым управлением, которые поощряют детей к опасному поведению;
- Социальная оценка: классификация людей на основе поведения, социально-экономического статуса или личных характеристик;
- Системы биометрической идентификации в режиме реального времени и удаленной идентификации, например, распознавание лица.
Возможно, будут разрешены исключения, например, системы удаленной биометрической идентификации "после", в которых идентификация происходит со значительной задержкой, будут разрешены для преследования серьезных преступлений, но только после судебного разрешения.
Высокий риск
Высокий риск – системы искусственного интеллекта, которые негативно влияют на безопасность или фундаментальные права, будут считаться высокорисковыми и будут делиться на две категории:
1) Системы искусственного интеллекта, используемые в продуктах, на которые распространяется законодательство ЕС о безопасности продукции. Сюда входят игрушки, авиация, автомобили, медицинские устройства и лифты.
2) Системы искусственного интеллекта, относящиеся к восьми конкретным сферам, которые должны быть зарегистрированы в базе данных ЕС:
- биометрическая идентификация и категоризация лиц;
- управление и эксплуатация критической инфраструктуры;
- образование и профессиональная подготовка;
- занятость, управление трудовыми ресурсами и доступ к самозанятости;
- доступ к основным частным и государственным услугам и пользование ими;
- правоохранительная деятельность;
- управление миграцией, предоставлением убежища и пограничным контролем;
- помощь в толковании и применении законодательства.
Все системы искусственного интеллекта с высокой степенью риска будут оцениваться перед выходом на рынок и на протяжении всего их жизненного цикла.
Ограниченный риск
Системы ИИ с ограниченным риском должны соответствовать минимальным требованиям прозрачности, что позволит пользователям принимать обоснованные решения. После взаимодействия с приложениями пользователи могут решить, хотят ли они продолжать их использовать. Пользователи должны осознавать, когда они взаимодействуют с искусственным интеллектом. Это касается систем искусственного интеллекта, которые генерируют или манипулируют графическим, аудио- или видеоконтентом, например, deepfake.
Требования к генеративному искусственному интеллекту
Генеративный искусственный интеллект, такой как ChatGPT, должен соответствовать требованиям прозрачности:
- Раскрытие информации о том, что контент был сгенерирован искусственным интеллектом;
- Разработка модели таким образом, чтобы предотвратить создание незаконного контента;
- Публикация резюме защищенных авторским правом данных, использованных для обучения.











