Реєстрація
Створити статтю

9 способов, как хакеры используют машинное обучение для осуществления атак

Ця стаття доступна українською мовою
хакер

Алгоритмы машинного обучения улучшат решения для обеспечения безопасности, помогая аналитикам сортировать угрозы и быстрее закрывать уязвимости. С другой стороны, они также могут быть полезными для хакеров для проведения более масштабных и сложных атак.

Машинное обучение и искусственный интеллект (ИИ) становятся основными технологиями для некоторых инструментов обнаружения угроз и реагирования на них. Использование искусственного интеллекта дает специалистам по безопасности преимущество.

Однако некоторые злоумышленники также используют машинное обучение и искусственный интеллект для увеличения масштабов своих кибератак, обхода средств защиты и поиска новых уязвимостей – и все это с беспрецедентной скоростью и с разрушительными последствиями. Вот девять самых распространенных способов использования этих технологий злоумышленниками.

Спам

"Защитники используют машинное обучение для обнаружения спама в течение десятилетий, – говорит Фернандо Монтенегро, аналитик Omdia. "Предотвращение спама – лучший начальный кейс для машинного обучения".

Если спам-фильтр, который вы используете, предоставляет причину, почему письмо не прошло через него, или выдает определенный результат, злоумышленник может использовать это для изменения своего поведения. Они использовали бы законный инструмент, чтобы сделать свои атаки более эффективными. "Если вы отправляете письма достаточно часто, вы можете реконструировать, какой была модель, а затем усовершенствовать свою атаку, чтобы обойти эту модель", – объясняет Монтенегро.

фишинг

Улучшенные" фишинговые письма

Злоумышленники используют инструменты безопасности на основе машинного обучения не только для того, чтобы проверить, могут ли их сообщения обойти спам-фильтры. Они также используют машинное обучение для создания этих писем, говорит Адам Малоун, партнер EY по технологическому консалтингу.

"Они дают объявления о продаже этих услуг на криминальных форумах. Они используют их для создания лучших фишинговых писем. Создают фейковые лица для проведения мошеннических кампаний". В частности, эти сервисы рекламируются как использующие машинное обучение, и это, вероятно, не просто маркетинг. По словам Малоуна, они однозначно лучше.

Машинное обучение позволяет злоумышленникам творчески адаптировать фишинговые электронные письма, чтобы они не появлялись в массовой рассылке и по ним кликали люди. Мошенники не останавливаются только на тексте письма. ИИ можно использовать для создания реалистичных изображений, профилей в социальных сетях и других материалов, чтобы коммуникация выглядела максимально легитимной.

Лучшее угадывание паролей

По его словам, преступники также используют машинное обучение, чтобы лучше угадывать пароли. "Мы видели доказательства этого на основе частоты и успешности использования механизмов подбора паролей", – говорит Мейлоун. Преступники создают лучшие словари и взламывают украденные пароли. Они также используют машинное обучение для определения элементов управления безопасностью, чтобы уменьшить количество попыток и лучше угадывать пароли, а также увеличить шансы на успешное получение доступа к системе.

Глубокая подделка

Самым страшным применением искусственного интеллекта являются инструменты deep fake (дословно: глубокая подделка), которые могут генерировать видео или аудио, которые трудно отличить от реального человека. "Способность имитировать чей-то голос или лицо очень полезна против людей", – говорит Монтенегро. "Если кто-то делает вид, что звучит как я, вы можете на это повестись".

За последние несколько лет было обнародовано несколько громких случаев, когда поддельные аудиозаписи стоили компаниям сотни тысяч – или миллионы долларов. "Люди получали фальшивые звонки от своего босса", – рассказывает Мурат Кантарджиоглу, профессор компьютерных наук Техасского университета.

Мошенники все чаще используют ИИ для создания реалистичных фотографий, профилей пользователей и фишинговых писем, чтобы сделать свои сообщения более достоверными. Это большой бизнес. По данным ФБР, с 2016 года мошенничество с компрометацией деловой электронной почты привело к убыткам на сумму более 43 миллиардов долларов. Прошлой осенью в СМИ появились сообщения о том, что гонконгский банк был обманом вынужден передать 35 миллионов долларов преступной группировке, потому что сотрудник банка получил телефонный звонок от директора компании, с которым он ранее разговаривал. Он узнал голос и дал разрешение на перевод.

Нейтрализация инструментов безопасности

Многие популярные инструменты безопасности, используемые сегодня, имеют встроенный искусственный интеллект или машинное обучение. Например, антивирусные инструменты все чаще ищут подозрительное поведение за пределами базовых сигнатур. "Все, что доступно в Интернете, особенно с открытым кодом, может быть использовано преступниками", – говорит Кантарджиоглу.

Злоумышленники могут использовать эти инструменты не для защиты от атак, а для настройки своего вредоносного программного обеспечения так, чтобы оно могло избегать обнаружения. "Модели искусственного интеллекта имеют много слепых зон" – объясняет Кантарджиоглу. "Вы можете изменить их, изменив характеристики вашей атаки, например, количество пакетов, которые вы отправляете, или ресурсы, которые вы атакуете".

Злоумышленники используют не только инструменты безопасности на основе искусственного интеллекта. ИИ является частью многих различных технологий. Вспомните, например, что пользователи часто учатся распознавать фишинговые письма, ища грамматические ошибки. Грамматические проверки на основе искусственного интеллекта, такие как Grammarly, могут помочь злоумышленникам улучшить свои "письменные работы".

Разведка

Машинное обучение можно использовать для разведки. Злоумышленники изучают схемы передвижения, защиту и потенциальные слабые места своих целей. Это нелегко сделать, поэтому вряд ли рядовой киберпреступник будет этим заниматься.

вирусы

Автономное вредоносное программное обеспечение

Если компания заметит, что ее атакуют, и отключит доступ к интернету для пораженных систем, то вредоносное программное обеспечение не сможет снова подключиться к своим командным серверам для получения инструкций. "Злоумышленники могут захотеть придумать умную модель, которая будет работать даже тогда, когда они не смогут контролировать ее напрямую, для обеспечения долгосрочной устойчивости", – говорит Кантарджиоглу. "Но в случае обычных киберпреступлений, я думаю, это не было бы сверхважно".

"Отравление" искусственного интеллекта

Злоумышленник может обмануть модель машинного обучения, подавая ей новую информацию. "Злоумышленник манипулирует обучающим набором данных" – объясняет Алексей Рубцов, старший научный сотрудник Института глобальных рисков. "Например, он намеренно меняет их местами, и машина обучается неправильно".

Например, похищенная учетная запись пользователя может входить в систему ежедневно в 2 часа ночи для выполнения безобидной работы, заставляя систему думать, что в ночной работе нет ничего подозрительного, и уменьшая количество барьеров безопасности, через которые пользователю приходится каждый раз проходить.

Это похоже на то, как чат-бота Tay от Microsoft научили быть расистом в 2016 году. Тот же подход можно использовать, чтобы научить систему, что определенный тип вредоносного программного обеспечения является безопасным или что определенное поведение ботов является вполне нормальным.

интеллект

Нечеткий искусственный интеллект

Легальные разработчики программного обеспечения и тестировщики на проникновение используют программное обеспечение для создания случайной выборки входных данных, пытаясь взломать программу или найти уязвимость. Усовершенствованные версии этого программного обеспечения используют машинное обучение, чтобы генерировать входные данные более целенаправленно и структурировано, предоставляя приоритет, например, текстовым строкам, которые, скорее всего, вызовут проблемы. Это делает инструменты "нечеткой обработки" более полезными для бизнеса, но и более смертоносными в руках злоумышленников.

Все эти методы являются причиной того, что базовая гигиена кибербезопасности, такая как исправление, антифишинговое образование и микросегментация, по-прежнему имеет решающее значение. "И это одна из причин, почему фоновая защита так важна", – говорит Меллен из Forrester. "Нужно ставить несколько блокпостов, а не только один, который злоумышленники в конечном итоге используют вас в свою пользу".

Машинное обучение – довольно сложный метод взлома информационных систем. Хакеры должны быть очень опытными, иметь много специфических знаний. Существуют более простые и легкие способы взломать бизнес, поскольку многие уязвимости остаются неисправленными. "Существует много легких способов зарабатывать деньги, не используя машинное обучение и ИИ для создания атак", – говорит Меллен. Он добавляет: "По моему опыту, в подавляющем большинстве случаев они не пользуются этим". Поскольку компании совершенствуют свою защиту, а преступники и государства продолжают инвестировать в свои атаки, этот баланс может вскоре начать меняться.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.
Додати


Інші статті рубрики