Posted in

AI-розроблене шкідливе програмне забезпечення не становить загрози

Зразки шкідливого програмного забезпечення, розроблені за допомогою AI

Компанія Google днями представила п’ять зразків шкідливого програмного забезпечення, створених за допомогою генеративного штучного інтелекту. Згідно з аналізом, результати роботи цих зразків значно поступаються професійно розробленим шкідливим програмам, що свідчить про те, що технології створення шкідливого програмного забезпечення на базі штучного інтелекту ще не досягли рівня, здатного завдати серйозної шкоди.

Один з прикладів, відомий під назвою PromptLock, став частиною академічного дослідження, яке аналізувало ефективність використання великих мовних моделей для автономного планування, адаптації та виконання циклу атаки програм-вимагачів. Проте дослідники вказали на «очевидні обмеження»: відсутність постійності, бічного переміщення та складних тактик ухилення, що робить його більше демонстрацією можливостей штучного інтелекту, ніж реальним загрозою.

Інші чотири зразки – FruitShell, PromptFlux, PromptSteal та QuietVault – також виявилися легкими для виявлення, навіть найпростішими системами захисту, що використовують статичні сигнатури. Усі зразки використовували вже відомі методи, що значно спростило їх нейтралізацію. Вони не мали жодного операційного впливу, що означає, що захисники не мали потреби у впровадженні нових засобів захисту.

Дослідники відзначили, що три роки після початку буму генеративного штучного інтелекту, розвиток загроз йде вкрай повільно. Один з незалежних дослідників, Кевін Бомонт, зазначив, що якби хтось платив розробникам шкідливого програмного забезпечення за ці зразки, то, напевно, запитував би про повернення коштів, адже це не демонструє жодної серйозної загрози.

Таким чином, висновки Google підтверджують, що генеративний штучний інтелект наразі не надає значної переваги розробникам шкідливого програмного забезпечення в порівнянні з традиційними методами розробки.