В епоху цифровізації дані стають дедалі ціннішими, а їхній захист - першочерговим завданням для компаній по всьому світу. Нещодавнє дослідження вчених з Університету Іллінойсу в Урбана-Шампейн відкрило нові горизонти у використанні штучного інтелекту, але водночас порушило питання про безпеку та етику його застосування.
GPT-4 кращий за будь-якого хакера і пентестера
Згідно з опублікованими даними, штучний інтелект GPT-4 від OpenAI продемонстрував здатність самостійно знаходити і використовувати вразливості на веб-сайтах. Це стало можливим завдяки складним алгоритмам, що дають змогу аналізувати й адаптуватися до інформації, одержуваної в процесі взаємодії з цільовими системами. Під час експерименту, проведеного в контрольованому середовищі для запобігання реальної шкоди, GPT-4 зміг обійти захист у понад 70% випадків, значно випередивши інші моделі.
Дешево й ефективно
Дослідження також підкреслило економічну вигоду використання штучного інтелекту в галузі кібербезпеки. Середні витрати на злом одного сайту за допомогою GPT-4 склали менше десяти доларів, що набагато дешевше, ніж послуги професійного пентестера. Ці висновки можуть відкрити нові шляхи для поліпшення тестування безпеки веб-додатків, однак вони також піднімають питання про потенційне зловживання такими технологіями.
Майбутнє кібербезпеки: проблеми та рішення
Можливості GPT-4 викликали стурбованість серед фахівців з кібербезпеки. Експерти попереджають, що автономні штучні інтелекти, здатні на самостійний злам систем, являють собою новий рівень загрози. Для протидії потенційним небезпекам необхідно розробити стратегії безпеки, які враховували б ці нові виклики.
OpenAI вже висловила свою зацікавленість у співпраці з дослідниками безпеки і наголосила на своїй прихильності розвитку безпечних технологій. Компанія закликає до створення стандартів і політик, які допоможуть забезпечити безпечне використання штучного інтелекту в майбутньому.










