Атаки глибоких фейків, що імітують голоси знайомих, стають дедалі поширенішими. Вони використовують штучний інтелект для клону голосів близьких людей, що вводить жертву в оману, змушуючи діяти терміново, наприклад, перерахувати гроші чи надати доступ до облікових записів.
Ці шахрайства викликали занепокоєння у фахівців з кібербезпеки. За даними Агентства з кібербезпеки та інфраструктурної безпеки США, загроза від глибоких фейків зросла «експоненційно» у 2023 році. Компанія Mandiant, що належить Google, зазначила, що такі атаки виконуються з «вражаючою точністю», що робить їх особливо небезпечними.
Основні етапи виконання таких атак включають:
- Збір голосових зразків особи, яку планують імітувати. Для цього достатньо записів тривалістю всього три секунди, які можуть бути взяті з відео чи попередніх дзвінків.
- Використання технологій синтезу мови, таких як Google Tacotron 2 або Microsoft Vall-E, для створення штучного голосу.
- Додатково, шахраї можуть підробляти номер телефону жертви.
- Запуск шахрайського дзвінка. У деяких випадках голос буде слідувати за заздалегідь підготовленим сценарієм, а в інших – генеруватися в реальному часі.
Як зазначає Group-IB, реальний час генерування глибоких фейків у таких атаках поки що залишається рідкісним явищем, але з розвитком технологій це може змінитися в найближчому майбутньому.