
Поскольку генеративный ИИ все больше распространяется в технологической индустрии, правительства во всем мире начинают рассматривать вопросы регулирования для борьбы с его потенциалом содействия преступности и предвзятости.
Хотя США и Китай являются ожесточенными конкурентами в торговле технологиями, у них, похоже, появилось нечто новое: беспокойство относительно ответственности за искусственный интеллект и возможное злоупотребление им. Во вторник правительства обеих стран обнародовали коммюнике по регулированию развития искусственного интеллекта.
Национальная администрация по телекоммуникациям и информации (NTIA), подразделение Министерства торговли США, опубликовала официальный публичный запрос о том, какие политики должны формировать экосистему ответственности за ИИ. Среди вопросов, стоящих на кону, – доступ к данным, измерение подотчетности и то, как подходы к ИИ могут отличаться в различных отраслях, таких как трудоустройство или здравоохранение. Письменные комментарии в ответ на предложение должны быть получены NTIA до 10 июня 2023 года, через 60 дней с даты публикации в Федеральном реестре.
Рекомендуем прочитать:
- Как компании используют искусственный интеллект?
- К 2030 году ИИ может принести $14 триллионов: какие акции нужно покупать уже сейчас
- ChatGPT дает возможность работать одновременно на нескольких работах
Китайское регулирование искусственного интеллекта
Эта новость появилась в тот самый день, когда Администрация киберпространства Китая (CAC) представила ряд проектов мер по управлению услугами генеративного ИИ, включая возложение на поставщиков ответственности за достоверность данных, используемых для обучения инструментов генеративного ИИ.
Согласно сообщению Reuters, CAC заявил, что поставщики должны нести ответственность за достоверность данных, используемых для обучения инструментов ИИ, и что необходимо принять меры для предотвращения дискриминации при разработке алгоритмов и наборов данных для обучения. Компании также будут обязаны предоставлять оценку безопасности правительству, прежде чем выпускать свои инструменты ИИ для общественности.
Если их платформы генерируют неприемлемый контент, компании должны будут обновить свои технологии в течение трех месяцев, чтобы предотвратить повторное генерирование подобного контента, согласно проекту правил. Невыполнение требований приведет к штрафу, приостановке предоставления услуг или уголовным расследованиям.
Любой контент, созданный генеративным ИИ, должен соответствовать основным социалистическим ценностям страны, заявили в CAC.
Китайские технологические гиганты уже активно работают над разработкой ИИ. Заявление CAC было сделано в тот же день, когда Alibaba Cloud объявила о новой языковой модели под названием Tongyi Qianwen, которая будет разработана как интерфейс в стиле ChatGPT для всех своих бизнес-приложений. В прошлом месяце другой китайский гигант веб-сервисов и искусственного интеллекта, Baidu, объявил о китайскоязычной альтернативе ChatGPT - боте Ernie.
Регулирование и инновации в сфере искусственного интеллекта
В то время как правительство Китая установило четкие правила регулирования, другие правительства во всем мире придерживаются другого подхода. В марте 2023 года правительство Великобритании заявило, что для того, чтобы "избежать жесткого регулирования, которое может подавить инновации", оно решило не делегировать ответственность за управление ИИ новому единому регулятору, вместо этого призвав существующие регуляторные органы разработать собственные подходы, которые лучше всего соответствуют способу использования ИИ в их секторах.
Однако такой подход был раскритикован некоторыми экспертами отрасли, которые утверждают, что существующие структуры могут быть не в состоянии эффективно регулировать ИИ из-за сложной и многоуровневой природы некоторых инструментов ИИ, а это означает, что комбинация различных систем будет неизбежной.
Кроме того, британский регулятор по вопросам защиты данных выдал предупреждение технологическим компаниям по защите персональных данных при разработке и развертывании моделей ИИ с большим лингвистическим и генеративным охватом, а итальянский регулятор по вопросам защиты данных запретил ChatGPT из-за вероятных нарушений приватности. Группа из 1100 технологических лидеров и исследователей также призвала к шестимесячной паузе в разработке систем мощнее недавновыпущенного OpenAI ChatGPT-4.
Когда речь идет о технологических инновациях и регулировании, существует определенный естественный путь, по которому обычно идут правительства или законодатели, сказал Фрэнк Буйтендейк, аналитик Gartner.
"Когда на рынке появляется новая технология, мы учимся использовать ее ответственно, делая ошибки" – сказал он. "Это то, что мы сейчас делаем с искусственным интеллектом". После этого, по словам Буйтендейка, начинают появляться нормативные акты, которые позволяют разработчикам, пользователям и правовым системам узнать об ответственном использовании через интерпретацию закона и прецедентное право, а затем наступает завершающий этап, когда появляются технологии, которые имеют встроенную функцию ответственного использования. "Мы учимся ответственному использованию через эти встроенные лучшие практики, так что это процесс", – сказал господин Байтендейк.