Telegram Group & Telegram Channel
Я уже не раз писал, что одна из самых сложных задач в развитии искусственного интеллекта - вписать его в человеческие социальные нормы. А то ChatGPT обругает black guys, радикальных фемок и прочих всяких полисексуальных мультигендерных персонажей, а разработчикам потом по судам бегать. А то поди и чего более страшного наговорит - а кожаным потом води детей по психиатрам.

Проблема в том, что искусственный интеллект обучается и переобучается на огромном (прям вот офигенно большом!) массиве разношерстных данных. Вычленить заранее в этом массиве “плохие” данные не представляется возможным просто физически. Для этого потребовалось бы запереть в ангаре целую армию индусов, и они все равно бы не справились (даже за десятки лет).

Поэтому OpenAI пошла по другому пути. Они откопали “в самых темных уголках интернета” (это цитата) разные непотребные тексты, отправили их своему подрядчику в Кению, а там дальше кенийские работники маркировали и размечали фрагменты содержащие насилие, неприемлемую лексику и прочие гадости. Потом эти размеченные данные скормили специальному ИИ-инструменту, который будет сидеть внутри ChatGPT и помогать последнему вычленять недопустимые словечки еще до того, как выдать их кожаным.

Этот самый кенийский подрядчик хвастался журналистам, что “позволяет десяткам тысяч кенийцев вылезти из бедности” и вообще, “способствуют созданию этичного ИИ”. На деле же есть нюансы. По-первых, работникам платили около полтора баксов в час за довольно изматывающую работу. Но это ладно, для Африки, полагаю, вполне сносно. Другое дело - многие сотрудники после подобных упражнений жаловались на расстройства психики и прочие проблемы с нервишками. Что не мудрено, учитывая, что им приходилось размечать действительно суровый контент - вроде сексуального насилия над детьми, описания всякой расчлененки, пыток и других весьма сомнительных вещей (не говоря уже о менее тяжелых девиантных штуках).

Вот так и получается:

- Ожидание: искусственный интеллект избавляет людей от неприятной и тяжелой работы.
- Реальность: африканцы за копейки зарабатывают ПТСР и вьетнамские флешбеки, пытаясь отучить ИИ говорить гадости.

(вот многобуквенный оригинал статьи от Time, а тут краткое саммари на русском).

Disruptors



group-telegram.com/disruptors_official/701
Create:
Last Update:

Я уже не раз писал, что одна из самых сложных задач в развитии искусственного интеллекта - вписать его в человеческие социальные нормы. А то ChatGPT обругает black guys, радикальных фемок и прочих всяких полисексуальных мультигендерных персонажей, а разработчикам потом по судам бегать. А то поди и чего более страшного наговорит - а кожаным потом води детей по психиатрам.

Проблема в том, что искусственный интеллект обучается и переобучается на огромном (прям вот офигенно большом!) массиве разношерстных данных. Вычленить заранее в этом массиве “плохие” данные не представляется возможным просто физически. Для этого потребовалось бы запереть в ангаре целую армию индусов, и они все равно бы не справились (даже за десятки лет).

Поэтому OpenAI пошла по другому пути. Они откопали “в самых темных уголках интернета” (это цитата) разные непотребные тексты, отправили их своему подрядчику в Кению, а там дальше кенийские работники маркировали и размечали фрагменты содержащие насилие, неприемлемую лексику и прочие гадости. Потом эти размеченные данные скормили специальному ИИ-инструменту, который будет сидеть внутри ChatGPT и помогать последнему вычленять недопустимые словечки еще до того, как выдать их кожаным.

Этот самый кенийский подрядчик хвастался журналистам, что “позволяет десяткам тысяч кенийцев вылезти из бедности” и вообще, “способствуют созданию этичного ИИ”. На деле же есть нюансы. По-первых, работникам платили около полтора баксов в час за довольно изматывающую работу. Но это ладно, для Африки, полагаю, вполне сносно. Другое дело - многие сотрудники после подобных упражнений жаловались на расстройства психики и прочие проблемы с нервишками. Что не мудрено, учитывая, что им приходилось размечать действительно суровый контент - вроде сексуального насилия над детьми, описания всякой расчлененки, пыток и других весьма сомнительных вещей (не говоря уже о менее тяжелых девиантных штуках).

Вот так и получается:

- Ожидание: искусственный интеллект избавляет людей от неприятной и тяжелой работы.
- Реальность: африканцы за копейки зарабатывают ПТСР и вьетнамские флешбеки, пытаясь отучить ИИ говорить гадости.

(вот многобуквенный оригинал статьи от Time, а тут краткое саммари на русском).

Disruptors

BY Дизраптор


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/disruptors_official/701

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Stocks dropped on Friday afternoon, as gains made earlier in the day on hopes for diplomatic progress between Russia and Ukraine turned to losses. Technology stocks were hit particularly hard by higher bond yields. READ MORE "Someone posing as a Ukrainian citizen just joins the chat and starts spreading misinformation, or gathers data, like the location of shelters," Tsekhanovska said, noting how false messages have urged Ukrainians to turn off their phones at a specific time of night, citing cybersafety. A Russian Telegram channel with over 700,000 followers is spreading disinformation about Russia's invasion of Ukraine under the guise of providing "objective information" and fact-checking fake news. Its influence extends beyond the platform, with major Russian publications, government officials, and journalists citing the page's posts.
from in


Telegram Дизраптор
FROM American