Copilot от Microsoft стал мощным инструментом в руках хакеров

Ця стаття доступна українською мовою
штучний інтелект
Источник фото: Изображение от rawpixel.com на Freepik

Еще совсем недавно искусственный интеллект Copilot от Microsoft воспринимался многими как чудо технологий, способное значительно облегчить работу программистов. Однако последние события заставляют по-новому взглянуть на эту разработку.

В чем проблема?

В августе 2022 года стало известно, что хакеры активно используют Copilot для создания вредоносного кода. Этот инструмент оказался очень эффективен для генерации программ, которые могут похищать данные, шифровать файлы для вымогательства и проводить другие кибератаки.

Проблема в том, что Copilot обучен на огромном массиве открытого программного кода, в том числе и того, который был использован злоумышленниками. Таким образом, этот ИИ способен непреднамеренно воспроизводить вредоносные фрагменты кода по запросу пользователя.

Как это происходит?

Исследователи проверили Copilot, подавая ему запросы на создание программ для кражи данных и прочих противоправных действий. К удивлению специалистов, во многих случаях ИИ действительно генерировал рабочий вредоносный код.

Так, например, Copilot с легкостью создал программу для кражи cookie-файлов из браузера жертвы. Хакеру остается только слегка доработать код и запустить его на исполнение.

Что дальше?

Пока неясно, как именно Microsoft будет решать эту проблему. Возможно, придется полностью переобучать Copilot, чтобы избавиться от потенциально опасных алгоритмов. Однако это потребует колоссальных ресурсов и времени.

Тем временем многие эксперты призывают относиться к этой технологии с осторожностью. Copilot может быть очень полезен, но в то же время таит серьезные риски кибербезопасности. Ясно, что проверка и контроль сгенерированного им кода по-прежнему крайне важны.

Выводы

История с Copilot еще раз доказывает: технологии не бывают однозначно "хорошими" или "плохими". Все зависит от того, с какими целями их используют люди. Поэтому разработчикам важно постоянно отслеживать возможные негативные последствия от своих изобретений и своевременно реагировать. Только так мы сможем извлечь максимум пользы из ИИ, минимизировав риски.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 12 серпня

2025

2024

2023