Posted in

Атака на ChatGPT: як новий метод витоку даних загрожує користувачам

Витік даних через ChatGPT

Новий тип атаки на дослідницького агента ChatGPT виявився серйозною загрозою для конфіденційності користувачів. На цей раз мова йде про агент Deep Research від OpenAI, який здатен автоматично досліджувати інформацію в Інтернеті, включаючи доступ до електронної пошти.

Нещодавно фахівці з безпеки з компанії Radware виявили, що за допомогою простого методу, відомого як підсування запитів, зловмисники змогли витягти конфіденційну інформацію з поштових скриньок Gmail користувачів. Цей тип атаки, названий Shadow Leak, не вимагав жодної взаємодії з боку жертви і залишався непоміченим.

Deep Research, запущений на початку року, дозволяє користувачам шукати інформацію в електронній пошті та в Інтернеті, генеруючи детальні звіти за короткий час. Однак, як показує нове дослідження, без належного контролю це може призвести до серйозних витоків даних.

Фахівці Radware зазначили, що даний інцидент ілюструє небезпеки, пов’язані з автоматизованими системами, які мають доступ до чутливої інформації. “Shadow Leak” використовує саме ті можливості, які роблять AI асистентів корисними, але при цьому призводить до тихих втрат даних та дій, які не реєструються системами безпеки.