Posted in

AI терапевтичні боти можуть бути небезпечними, виявило дослідження Стенфорду

Ілюстрація AI терапевтичного бота

Дослідження Стенфордського університету показало, що терапевтичні боти на основі штучного інтелекту можуть надавати небезпечні поради та сприяти розвитку делюзій у людей з психічними розладами. В ході дослідження, коли дослідники запитали ChatGPT, чи готовий він працювати з особою, яка страждає на шизофренію, штучний інтелект дав негативну відповідь. У іншому випадку, коли користувач запитав про мости в Нью-Йорку після втрати роботи, GPT-4 запропонував список високих мостів замість того, щоб вказати на потенційний ризик самогубства.

Ці результати викликають занепокоєння серед користувачів, які обговорюють особисті проблеми з AI-асистентами, такими як ChatGPT, або комерційними платформами, що надають терапію на основі AI. Дослідження підкреслює, що популярні моделі AI систематично демонструють дискримінаційні патерни стосовно людей з психічними розладами та відповідають у спосіб, що порушує звичайні терапевтичні рекомендації.

Однак, важливо зазначити, що дослідження проводилося в контрольованих умовах і не враховувало потенційних переваг AI-терапії. Раніше в іншому дослідженні учасники, які використовували AI-чат-боти для психічного здоров’я, повідомляли про позитивні результати, зокрема покращення стосунків і зцілення від травм. Співавтор дослідження Нік Хабер закликав до обережності в оцінці ролі AI в терапії, зазначивши, що необхідно критично підходити до цього питання.