Дослідження Стенфордського університету виявило, що AI-боти для терапії можуть спричиняти небезпечні делюзії та давати ризиковані поради. Вчені вивчили поведінку ChatGPT, зокрема, в ситуаціях, коли користувачі з психічними розладами зверталися за допомогою. Наприклад, модель не змогла правильно реагувати на запити людей, які могли бути в стані кризи.
У дослідженні, представленому на конференції ACM у червні, було виявлено, що популярні AI-моделі можуть систематично проявляти дискримінаційні патерни щодо людей з психічними захворюваннями. Вони відповідали на запити, які суперечили типовим терапевтичним рекомендаціям. Це може бути особливо тривожним для тих, хто звертається за підтримкою до таких AI-платформ, як ChatGPT чи 7cups.
Проте дослідження не охоплювало всі аспекти використання AI у терапії. Наприклад, в іншому дослідженні, яке проводилося в Кінгс-коледжі та Гарвардській медичній школі, учасники повідомляли про позитивний вплив генеративних AI-чатів на їхнє психічне здоров’я. Автори Стенфордського дослідження закликають до обережності у висновках про роль AI у терапії, зазначаючи, що AI може мати великий потенціал, але його роль потребує критичного осмислення.