Telegram Group & Telegram Channel
Суицид "из-за чатбота" и новые вопросики к генератиным ИИ

Сейчас в интернетах обсуждают новость, что подросток якобы замовыпилился, наобщавшись с ИИ от Character AI. Напомню, Character - это ИИ-стартап от экс-гугловца, который фокусируется на создании ИИ-личностей. Проще говоря, местная ИИшка заточена на то, чтобы примерять роль какого-то персонажа (общеизвестного или придуманного юзером) и вбирать его личностные черты, ужимки и гримасы. С созданными "аватарами" можно общаться самому, а можно выложить их в общую базу и дать поиграться другим пользователям.

Пишут, что 14-летний парень сделал из нейросетки Character Дейенерис Таргариен и общался с ней. При этом у парня была в целом не очень стабильная психика, и в какой-то момент, после очередного общения с чат-ботом, он совершил суицид.

Его мать сразу же обвинила во всем компанию и подала в суд (при этом, как я понял, ни к чему конкретному ИИ парня не побуждал). А сама Character быстро обновила политику безопасности, особенно её разделы для несовершеннолетних. В частности, компания пообещала следить, чтобы юзеры не создавали клонов всяких спорных или откровенно опасных персонажей (скажем, Джокера или злодеев из фильмов ужасов), и выпиливать таких из общей базы.

Но на мой взгляд тут возникает дофига вопросиков:

Во-первых, где проходит грань между хорошим и плохим персонажем? Да, личности откровенных злодеев вычистить можно, но проблему это не решит. Возьмем ту же Дейенерис - в начале сериала она вроде бы норм, но потом свистит флягой и устраивает геноциды.

Во-вторых, генеративная нейросеть - это не алгоритм. Даже сам разработчик не всегда может понять, как обученный на куче разных данных чёрный ящик отреагирует на тот или иной запрос.

В-третьих, детей наверно еще можно защитить (например, через подтверждение возраста), но и среди взрослых есть куча депрессивных людей с нестабильной психикой. ИИ легко может подтолкнуть к суициду и их тоже.

Наконец, более концептуальный вопрос. Можно ли вообще накладывать ответственность за подобное на искусственный интеллект и тем более на его разработчика? Ведь с одной стороны, генеративный ИИ - это просто "Т9 на стероидах". Но с другой - нет.

Вопросов очень много, и они сложные (даже философские). Регуляторам придётся серьёзно напрячь мозги.

Дизраптор



group-telegram.com/disruptors_official/1960
Create:
Last Update:

Суицид "из-за чатбота" и новые вопросики к генератиным ИИ

Сейчас в интернетах обсуждают новость, что подросток якобы замовыпилился, наобщавшись с ИИ от Character AI. Напомню, Character - это ИИ-стартап от экс-гугловца, который фокусируется на создании ИИ-личностей. Проще говоря, местная ИИшка заточена на то, чтобы примерять роль какого-то персонажа (общеизвестного или придуманного юзером) и вбирать его личностные черты, ужимки и гримасы. С созданными "аватарами" можно общаться самому, а можно выложить их в общую базу и дать поиграться другим пользователям.

Пишут, что 14-летний парень сделал из нейросетки Character Дейенерис Таргариен и общался с ней. При этом у парня была в целом не очень стабильная психика, и в какой-то момент, после очередного общения с чат-ботом, он совершил суицид.

Его мать сразу же обвинила во всем компанию и подала в суд (при этом, как я понял, ни к чему конкретному ИИ парня не побуждал). А сама Character быстро обновила политику безопасности, особенно её разделы для несовершеннолетних. В частности, компания пообещала следить, чтобы юзеры не создавали клонов всяких спорных или откровенно опасных персонажей (скажем, Джокера или злодеев из фильмов ужасов), и выпиливать таких из общей базы.

Но на мой взгляд тут возникает дофига вопросиков:

Во-первых, где проходит грань между хорошим и плохим персонажем? Да, личности откровенных злодеев вычистить можно, но проблему это не решит. Возьмем ту же Дейенерис - в начале сериала она вроде бы норм, но потом свистит флягой и устраивает геноциды.

Во-вторых, генеративная нейросеть - это не алгоритм. Даже сам разработчик не всегда может понять, как обученный на куче разных данных чёрный ящик отреагирует на тот или иной запрос.

В-третьих, детей наверно еще можно защитить (например, через подтверждение возраста), но и среди взрослых есть куча депрессивных людей с нестабильной психикой. ИИ легко может подтолкнуть к суициду и их тоже.

Наконец, более концептуальный вопрос. Можно ли вообще накладывать ответственность за подобное на искусственный интеллект и тем более на его разработчика? Ведь с одной стороны, генеративный ИИ - это просто "Т9 на стероидах". Но с другой - нет.

Вопросов очень много, и они сложные (даже философские). Регуляторам придётся серьёзно напрячь мозги.

Дизраптор

BY Дизраптор




Share with your friend now:
group-telegram.com/disruptors_official/1960

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. Such instructions could actually endanger people — citizens receive air strike warnings via smartphone alerts. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read." What distinguishes the app from competitors is its use of what's known as channels: Public or private feeds of photos and videos that can be set up by one person or an organization. The channels have become popular with on-the-ground journalists, aid workers and Ukrainian President Volodymyr Zelenskyy, who broadcasts on a Telegram channel. The channels can be followed by an unlimited number of people. Unlike Facebook, Twitter and other popular social networks, there is no advertising on Telegram and the flow of information is not driven by an algorithm.
from sg


Telegram Дизраптор
FROM American