Російські військові хакери активно вивчають можливості використання технологій штучного інтелекту, зокрема ChatGPT, для вдосконалення своїх кібератак. Про це у спільному розслідуванні заявили Microsoft і OpenAI.
Експерименти небезпечного угруповання
За даними компаній, хакерська група під назвою "Forest Blizzard" або "Strontium", пов'язана з Головним розвідувальним управлінням Росії, вже проводить експерименти з використання можливостей ChatGPT.
"Дослідження військових спрямовані на вивчення складних супутникових і радіолокаційних технологій, а також на підтримку власних кібероперацій", – наголошується у звіті.
Чому це небезпечно?
Поки що масштаби використання ChatGPT російськими хакерами невеликі, але потенційна загроза дуже серйозна. Згідно з прогнозами Microsoft, технології штучного інтелекту можуть дозволити шахраям імітувати голоси і зовнішність реальних людей для проведення цільових атак.
"Уже за трьома секундами зразка голосу модель здатна імітувати будь-яку людину", – попереджають у компанії. А це відкриває широкі можливості для соціальної інженерії та виманювання конфіденційних даних.
Microsoft і OpenAI заявляють, що докладають максимум зусиль для виявлення подібних загроз і припинення діяльності хакерських угруповань, пов'язаних із використанням ChatGPT. Однак швидкість розвитку технологій ШІ випереджає можливості компаній щодо забезпечення кібербезпеки.











