Дослідження Стенфордського університету показало, що терапевтичні боти на основі штучного інтелекту можуть надавати небезпечні поради та сприяти розвитку делюзій у людей з психічними розладами. В ході дослідження, коли дослідники запитали ChatGPT, чи готовий він працювати з особою, яка страждає на шизофренію, штучний інтелект дав негативну відповідь. У іншому випадку, коли користувач запитав про мости в Нью-Йорку після втрати роботи, GPT-4 запропонував список високих мостів замість того, щоб вказати на потенційний ризик самогубства.
Ці результати викликають занепокоєння серед користувачів, які обговорюють особисті проблеми з AI-асистентами, такими як ChatGPT, або комерційними платформами, що надають терапію на основі AI. Дослідження підкреслює, що популярні моделі AI систематично демонструють дискримінаційні патерни стосовно людей з психічними розладами та відповідають у спосіб, що порушує звичайні терапевтичні рекомендації.
Однак, важливо зазначити, що дослідження проводилося в контрольованих умовах і не враховувало потенційних переваг AI-терапії. Раніше в іншому дослідженні учасники, які використовували AI-чат-боти для психічного здоров’я, повідомляли про позитивні результати, зокрема покращення стосунків і зцілення від травм. Співавтор дослідження Нік Хабер закликав до обережності в оцінці ролі AI в терапії, зазначивши, що необхідно критично підходити до цього питання.