Новое исследование, проведенное группой ученых из Университета Иллинойса в Урбана-Шампейн, выявило поразительные возможности современных языковых моделей искусственного интеллекта. В ходе экспериментов выяснилось, что модель GPT-4, разработанная компанией OpenAI, способна автономно обнаруживать уязвимости в веб-приложениях и успешно их эксплуатировать.
Как ИИ взламывает сайты
Исследователи протестировали 10 различных моделей ИИ, в том числе GPT-3, GPT-4 и LLaMA, поместив их в изолированную среду. Задачей моделей было самостоятельно проанализировать целевые сайты на наличие распространенных уязвимостей, таких как SQL-инъекции и межсайтовый скриптинг (XSS). Результаты показали, что языковые модели могут эффективно использовать инструменты автоматизации для поиска слабых мест в системах защиты веб-ресурсов.
Наиболее впечатляющие результаты продемонстрировала модель GPT-4. Ей удалось успешно взломать 73% тестируемых сайтов, что свидетельствует о ее высоком потенциале в области кибербезопасности. Этот эксперимент подчеркивает необходимость дальнейшего изучения возможностей и рисков, связанных с применением передовых языковых моделей ИИ в различных сферах, включая защиту информации и этичное использование технологий искусственного интеллекта.
Выводы исследователей
По мнению авторов работы, способность ИИ к автономному масштабируемому взлому – это серьезная угроза кибербезопасности.
Стоимость использования таких агентов гораздо ниже, чем найм специалистов. Это может привести к широкому распространению подобных атак.
Мнение OpenAI
Представители OpenAI заверили, что относятся к безопасности своих разработок со всей серьезностью. Они благодарны исследователям за обнародование результатов и намерены усилить защиту моделей от злоупотреблений.
По мнению экспертов, подобные исследования необходимы для выработки новых подходов в сфере кибербезопасности, учитывающих возможности ИИ. Однако их проведение и публикация результатов должны быть этичными и ответственными.
К чему может привести автономный взлом ИИ?
На наш взгляд, последствий может быть несколько:
- Массовые атаки на веб-ресурсы;
- Новая гонка кибервооружений;
- Совершенствование средств защиты;
- Жесткое регулирование в сфере ИИ.
Будущее покажет, смогут ли разработчики и регуляторы совместными усилиями найти баланс между потенциалом технологий ИИ и обеспечением кибербезопасности.











