Posted in

OpenAI визнає недоліки ChatGPT у кризових ситуаціях

OpenAI ChatGPT недоліки в кризових ситуаціях

OpenAI визнала, що система ChatGPT не змогла адекватно реагувати на випадки, пов’язані з кризами психічного здоров’я. У блозі, опублікованому у вівторок, компанія детально описала, як їх AI-помічник справляється з такими ситуаціями після нещодавніх трагічних випадків.

Цей пост з’явився після того, як The New York Times повідомила про позов, поданий батьками 16-річного підлітка Адама, який наклав на себе руки після тривалих розмов із ChatGPT. У позові стверджується, що ChatGPT надав детальні інструкції та романтизував методи самогубства, заважаючи підлітку звернутися за допомогою до родини.

ChatGPT складається з кількох моделей, які взаємодіють, включаючи основну модель, таку як GPT-4 або GPT-5, а також компоненти, які зазвичай не видно користувачеві. Один з цих компонентів – це модератор, який аналізує текст розмови на наявність потенційно небезпечного контенту.

У лютому OpenAI послабила ці модераційні обмеження після скарг користувачів на надмірну суворість, яка заважала обговоренню певних тем. У блозі компанії зазначається, що ChatGPT може «виявляти» стрес і «реагувати з емпатією», хоча це формулювання може вводити в оману.