Telegram Group & Telegram Channel
Я уже не раз писал, что одна из самых сложных задач в развитии искусственного интеллекта - вписать его в человеческие социальные нормы. А то ChatGPT обругает black guys, радикальных фемок и прочих всяких полисексуальных мультигендерных персонажей, а разработчикам потом по судам бегать. А то поди и чего более страшного наговорит - а кожаным потом води детей по психиатрам.

Проблема в том, что искусственный интеллект обучается и переобучается на огромном (прям вот офигенно большом!) массиве разношерстных данных. Вычленить заранее в этом массиве “плохие” данные не представляется возможным просто физически. Для этого потребовалось бы запереть в ангаре целую армию индусов, и они все равно бы не справились (даже за десятки лет).

Поэтому OpenAI пошла по другому пути. Они откопали “в самых темных уголках интернета” (это цитата) разные непотребные тексты, отправили их своему подрядчику в Кению, а там дальше кенийские работники маркировали и размечали фрагменты содержащие насилие, неприемлемую лексику и прочие гадости. Потом эти размеченные данные скормили специальному ИИ-инструменту, который будет сидеть внутри ChatGPT и помогать последнему вычленять недопустимые словечки еще до того, как выдать их кожаным.

Этот самый кенийский подрядчик хвастался журналистам, что “позволяет десяткам тысяч кенийцев вылезти из бедности” и вообще, “способствуют созданию этичного ИИ”. На деле же есть нюансы. По-первых, работникам платили около полтора баксов в час за довольно изматывающую работу. Но это ладно, для Африки, полагаю, вполне сносно. Другое дело - многие сотрудники после подобных упражнений жаловались на расстройства психики и прочие проблемы с нервишками. Что не мудрено, учитывая, что им приходилось размечать действительно суровый контент - вроде сексуального насилия над детьми, описания всякой расчлененки, пыток и других весьма сомнительных вещей (не говоря уже о менее тяжелых девиантных штуках).

Вот так и получается:

- Ожидание: искусственный интеллект избавляет людей от неприятной и тяжелой работы.
- Реальность: африканцы за копейки зарабатывают ПТСР и вьетнамские флешбеки, пытаясь отучить ИИ говорить гадости.

(вот многобуквенный оригинал статьи от Time, а тут краткое саммари на русском).

Disruptors



group-telegram.com/disruptors_official/701
Create:
Last Update:

Я уже не раз писал, что одна из самых сложных задач в развитии искусственного интеллекта - вписать его в человеческие социальные нормы. А то ChatGPT обругает black guys, радикальных фемок и прочих всяких полисексуальных мультигендерных персонажей, а разработчикам потом по судам бегать. А то поди и чего более страшного наговорит - а кожаным потом води детей по психиатрам.

Проблема в том, что искусственный интеллект обучается и переобучается на огромном (прям вот офигенно большом!) массиве разношерстных данных. Вычленить заранее в этом массиве “плохие” данные не представляется возможным просто физически. Для этого потребовалось бы запереть в ангаре целую армию индусов, и они все равно бы не справились (даже за десятки лет).

Поэтому OpenAI пошла по другому пути. Они откопали “в самых темных уголках интернета” (это цитата) разные непотребные тексты, отправили их своему подрядчику в Кению, а там дальше кенийские работники маркировали и размечали фрагменты содержащие насилие, неприемлемую лексику и прочие гадости. Потом эти размеченные данные скормили специальному ИИ-инструменту, который будет сидеть внутри ChatGPT и помогать последнему вычленять недопустимые словечки еще до того, как выдать их кожаным.

Этот самый кенийский подрядчик хвастался журналистам, что “позволяет десяткам тысяч кенийцев вылезти из бедности” и вообще, “способствуют созданию этичного ИИ”. На деле же есть нюансы. По-первых, работникам платили около полтора баксов в час за довольно изматывающую работу. Но это ладно, для Африки, полагаю, вполне сносно. Другое дело - многие сотрудники после подобных упражнений жаловались на расстройства психики и прочие проблемы с нервишками. Что не мудрено, учитывая, что им приходилось размечать действительно суровый контент - вроде сексуального насилия над детьми, описания всякой расчлененки, пыток и других весьма сомнительных вещей (не говоря уже о менее тяжелых девиантных штуках).

Вот так и получается:

- Ожидание: искусственный интеллект избавляет людей от неприятной и тяжелой работы.
- Реальность: африканцы за копейки зарабатывают ПТСР и вьетнамские флешбеки, пытаясь отучить ИИ говорить гадости.

(вот многобуквенный оригинал статьи от Time, а тут краткое саммари на русском).

Disruptors

BY Дизраптор


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/disruptors_official/701

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice. Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform. The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government.
from ar


Telegram Дизраптор
FROM American