Telegram Group & Telegram Channel
Суицид "из-за чатбота" и новые вопросики к генератиным ИИ

Сейчас в интернетах обсуждают новость, что подросток якобы замовыпилился, наобщавшись с ИИ от Character AI. Напомню, Character - это ИИ-стартап от экс-гугловца, который фокусируется на создании ИИ-личностей. Проще говоря, местная ИИшка заточена на то, чтобы примерять роль какого-то персонажа (общеизвестного или придуманного юзером) и вбирать его личностные черты, ужимки и гримасы. С созданными "аватарами" можно общаться самому, а можно выложить их в общую базу и дать поиграться другим пользователям.

Пишут, что 14-летний парень сделал из нейросетки Character Дейенерис Таргариен и общался с ней. При этом у парня была в целом не очень стабильная психика, и в какой-то момент, после очередного общения с чат-ботом, он совершил суицид.

Его мать сразу же обвинила во всем компанию и подала в суд (при этом, как я понял, ни к чему конкретному ИИ парня не побуждал). А сама Character быстро обновила политику безопасности, особенно её разделы для несовершеннолетних. В частности, компания пообещала следить, чтобы юзеры не создавали клонов всяких спорных или откровенно опасных персонажей (скажем, Джокера или злодеев из фильмов ужасов), и выпиливать таких из общей базы.

Но на мой взгляд тут возникает дофига вопросиков:

Во-первых, где проходит грань между хорошим и плохим персонажем? Да, личности откровенных злодеев вычистить можно, но проблему это не решит. Возьмем ту же Дейенерис - в начале сериала она вроде бы норм, но потом свистит флягой и устраивает геноциды.

Во-вторых, генеративная нейросеть - это не алгоритм. Даже сам разработчик не всегда может понять, как обученный на куче разных данных чёрный ящик отреагирует на тот или иной запрос.

В-третьих, детей наверно еще можно защитить (например, через подтверждение возраста), но и среди взрослых есть куча депрессивных людей с нестабильной психикой. ИИ легко может подтолкнуть к суициду и их тоже.

Наконец, более концептуальный вопрос. Можно ли вообще накладывать ответственность за подобное на искусственный интеллект и тем более на его разработчика? Ведь с одной стороны, генеративный ИИ - это просто "Т9 на стероидах". Но с другой - нет.

Вопросов очень много, и они сложные (даже философские). Регуляторам придётся серьёзно напрячь мозги.

Дизраптор



group-telegram.com/disruptors_official/1960
Create:
Last Update:

Суицид "из-за чатбота" и новые вопросики к генератиным ИИ

Сейчас в интернетах обсуждают новость, что подросток якобы замовыпилился, наобщавшись с ИИ от Character AI. Напомню, Character - это ИИ-стартап от экс-гугловца, который фокусируется на создании ИИ-личностей. Проще говоря, местная ИИшка заточена на то, чтобы примерять роль какого-то персонажа (общеизвестного или придуманного юзером) и вбирать его личностные черты, ужимки и гримасы. С созданными "аватарами" можно общаться самому, а можно выложить их в общую базу и дать поиграться другим пользователям.

Пишут, что 14-летний парень сделал из нейросетки Character Дейенерис Таргариен и общался с ней. При этом у парня была в целом не очень стабильная психика, и в какой-то момент, после очередного общения с чат-ботом, он совершил суицид.

Его мать сразу же обвинила во всем компанию и подала в суд (при этом, как я понял, ни к чему конкретному ИИ парня не побуждал). А сама Character быстро обновила политику безопасности, особенно её разделы для несовершеннолетних. В частности, компания пообещала следить, чтобы юзеры не создавали клонов всяких спорных или откровенно опасных персонажей (скажем, Джокера или злодеев из фильмов ужасов), и выпиливать таких из общей базы.

Но на мой взгляд тут возникает дофига вопросиков:

Во-первых, где проходит грань между хорошим и плохим персонажем? Да, личности откровенных злодеев вычистить можно, но проблему это не решит. Возьмем ту же Дейенерис - в начале сериала она вроде бы норм, но потом свистит флягой и устраивает геноциды.

Во-вторых, генеративная нейросеть - это не алгоритм. Даже сам разработчик не всегда может понять, как обученный на куче разных данных чёрный ящик отреагирует на тот или иной запрос.

В-третьих, детей наверно еще можно защитить (например, через подтверждение возраста), но и среди взрослых есть куча депрессивных людей с нестабильной психикой. ИИ легко может подтолкнуть к суициду и их тоже.

Наконец, более концептуальный вопрос. Можно ли вообще накладывать ответственность за подобное на искусственный интеллект и тем более на его разработчика? Ведь с одной стороны, генеративный ИИ - это просто "Т9 на стероидах". Но с другой - нет.

Вопросов очень много, и они сложные (даже философские). Регуляторам придётся серьёзно напрячь мозги.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/1960

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

But Telegram says people want to keep their chat history when they get a new phone, and they like having a data backup that will sync their chats across multiple devices. And that is why they let people choose whether they want their messages to be encrypted or not. When not turned on, though, chats are stored on Telegram's services, which are scattered throughout the world. But it has "disclosed 0 bytes of user data to third parties, including governments," Telegram states on its website. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said. If you initiate a Secret Chat, however, then these communications are end-to-end encrypted and are tied to the device you are using. That means it’s less convenient to access them across multiple platforms, but you are at far less risk of snooping. Back in the day, Secret Chats received some praise from the EFF, but the fact that its standard system isn’t as secure earned it some criticism. If you’re looking for something that is considered more reliable by privacy advocates, then Signal is the EFF’s preferred platform, although that too is not without some caveats. Under the Sebi Act, the regulator has the power to carry out search and seizure of books, registers, documents including electronics and digital devices from any person associated with the securities market. I want a secure messaging app, should I use Telegram?
from br


Telegram Дизраптор
FROM American