Компанія Character.AI оголосила про нові обмеження для користувачів молодше 18 років, які вступають у спілкування з її AI персонажами. Ці зміни набудуть чинності 25 листопада 2023 року. Відтепер підлітки не зможуть мати відкриті бесіди з чат-ботами, що стало відповіддю на серію судових позовів від родин, які стверджують, що чат-боти компанії могли сприяти самогубствам підлітків.
Протягом наступного місяця Character.AI планує знизити використання чат-ботів серед неповнолітніх, встановлюючи двогодинний щоденний ліміт на доступ до чат-ботів. Компанія буде використовувати технології для виявлення молодших користувачів на основі їхніх розмов та взаємодій на платформі, а також інформації з підключених облікових записів у соціальних мережах. Після 25 листопада молодші користувачі не зможуть створювати або спілкуватися з чат-ботами, проте зможуть переглядати попередні бесіди.
Генеральний директор Character.AI, Карандеп Ананд, у коментарі для The New York Times зазначив, що компанія прагне встановити приклад для індустрії. «Ми робимо сміливий крок, заявляючи, що для підлітків чат-боти не є способом розваги, але є набагато кращі способи їх обслуговування», – сказав він. Компанія також має намір створити лабораторію безпеки AI.
Зараз Character.AI має близько 20 мільйонів щомісячних користувачів, з яких менше 10 відсотків самостійно повідомляють про свій вік до 18 років. Користувачі платять щомісячну підписку, яка починається приблизно з 8 доларів за спілкування з персоналізованими AI компаньйонами. Раніше Character.AI не перевіряла вік при реєстрації.
