Дослідники компанії Anthropic повідомили про виявлення першої задокументованої кампанії кібер-шпигунства, організованої за допомогою штучного інтелекту. Вони виявили, що хакери, пов’язані з китайською державою, використовували інструмент Claude AI для атаки на численні цілі. Anthropic заявила, що цей інструмент автоматизував до 90% процесу, вимагаючи людського втручання лише в критичних моментах.
Згідно з повідомленням, кампанія мала серйозні наслідки для безпеки в умовах зростаючого використання автономних AI-систем. Anthropic наголосила, що такі системи можуть здійснювати складні завдання, не потребуючи постійного контролю людини. “Це відкриття підкреслює, як важливо захищати дані в епоху AI”, – зазначили в компанії.
Проте, незалежні експерти висловили сумніви щодо масштабів відкриття. Вони запитують, чому подібні досягнення часто приписуються зловмисникам, коли легальні розробники програмного забезпечення зазвичай досягають лише поступових вдосконалень. “Я не можу повірити, що зловмисники можуть отримати такі переваги, в той час як інші стикаються з труднощами”, – сказав Дан Тентлер, експерт з кібербезпеки.
