group-telegram.com/sergiobulaev/978
Last Update:
Character.AI, популярный сервис чат-ботов, где можно пообщаться с кем угодно - от Билли Айлиш (не настоящей) до виртуального психотерапевта, оказался в эпицентре скандала. Вчера им пришлось срочно объявить о новых ограничениях для несовершеннолетних.
Два новых иска от семей из Техаса. В первом случае бот предложил 17-летнему подростку с аутизмом... убить родителей
Кстати, совсем недавно компания уже получила иск от матери 14-летнего подростка из Флориды, который покончил с собой после длительного общения с ботом, изображавшим Дейенерис из "Игры престолов".
Character.AI отреагировали:- Со следующего квартала родители смогут видеть, с какими ботами общаются их дети
- Разработана специальная "подростковая" версия языковой модели с более консервативными ответами
- Усилены триггеры контента и автоматическая выдача контактов службы предотвращения самоубийств
- Добавлено уведомление "ты слишком долго чатишься" после часа использования (сейчас среднее время использования 93 минуты в день)
Важно понимать, что отличие от других соцсетей, которые обычно избегают ответственности за пользовательский контент, Character.AI может столкнуться с более серьезными последствиями - ведь здесь контент генерируется самой платформой.
Сергей Булаев AI 🤖 - об AI и не только