Telegram Group & Telegram Channel
Есть у меня гипотеза: секрет ИИ-революции заключается в синдроме "дикого помещика" у Салтыкова-Щедрина: "Думает, какие он машины из Англии выпишет, чтоб все па‌ром да па‌ром, а холопского духу чтоб нисколько не было". Синдром этот овладел мировыми элитами, раздосадованными необходимостью платить зарплаты и взаимодействовать социально, экономически и политически с т.н. "людьми". Реальность (к моему глубокому сожалению) все больше подтверждает эту гипотезу.

Вышла статья энтузиастов из Стэнфорда. Они "доказывают", что в мире ИИ даже социологические исследования будут проходить без участия "мужика" – человека и в качестве "социолога" и в качестве "респондента".
И вот как:

Авторы обучили большую языковую модель GPT-4 на массиве из 70 опросов жителей США, всего более 100 тыс. участников. Опросы относились к широкому кругу направлений: от психологии и социальной политики до политологии и общественного здравоохранения.

Цель состояла в моделировании реакций людей, относящихся к определенным демографическим подгруппам (по полу, возрасту, образованию, политпредпочтениям и т.д.). После обучения модели выбирался один вопрос из внешнего (не из эксперимента) исследования и устанавливалась корреляция между ответами GPT-4 и реальными данными.

Коэффициент корреляции от 0 до 1, где единица – 100% совпадение ответа модели с ответами живых людей. GPT-4 продемонстрировал достаточно высокий результат - 0,85-0,9. Экспериментаторы сделали и контрольный опыт: провели опрос среди 2659 человек, которые не были социологами, попросив их предсказать результаты социологических вопросов. Корреляция в этом случае составила 0,79. Так авторы сделали вывод о превосходстве модели над людьми.

Вывод традиционный для экспериментов такого рода – "дайте денег и через шаг ИИ сделает ненужным любую форму полевой социологии, потому что будет моделировать результат исследований со 100% точностью, что повлечет экономию средств в размере N миллиардов долларов". Отдельный плюс в отличие от "мясных социологов" модель способна принести результат быстро – в "один клик".

На практике же много вопросов.
1️⃣ точность ответов GPT-4 в исследовании зависела от подсказок - чем больше их было, тем точнее получался результат.
2️⃣ работа подобных моделей требует контролируемых условий и постоянной оценки эффективности со стороны разработчиков. Предсказательная точность языковых моделей в реальных условиях, как правило, падает - в т.ч. из-за накапливающихся погрешностей.

Все это делает модели не настолько удобным, быстрым и дешевым инструментом прогнозирования, как об этом заявляют их создатели. Чтобы контролировать модель, нужно постоянно проводить дублирующие реальные исследования иначе ты никогда не узнаешь, в какой момент ее "ответы" кардинально разойдутся с ответами реальных респондентов. Феномен накопления ошибок на каждом круге работы языковых моделей – известен, что делать с ним непонятно даже теоретически, но это никак не мешает их разработчикам продавать "мир будущего, где человек не нужен".

Даже в идеальных условиях для некоторых подгрупп точность была значительно ниже базовых 0,85: мужчины оказались менее “просчитываемы” - с корреляцией 0,72. А чернокожие – так и вовсе 0,6. В итоге – из описания эксперимента прямо следует, что чем дальше оцениваемый человек отходит от идеала предсказуемости – "пожилая женщина азиатского происхождения", тем меньше можно полагаться на предсказания ИИ.

Еще одна проблема в том, что модели требуют огромных массивов данных для обучения, и без притока новых социологических исследований им останется учиться на данных, которые они сами и сгенерировали - что приведет уже не к ошибкам, а к галлюцинациям. Ну и, чтобы хоть как-то полагаться на модели, придется даже теоретически исключить возможность появления "меняющих все" радикальных раздражителей для общества – войны, эпидемии, политический радикализм, катастрофы.

Энтузиастов это не останавливает. Ведь модели обещают радикальное увеличение прибыли крупных социологических компаний и снижение расходов заказчиков на социсследования через сокращение рабочих мест в отрасли.



group-telegram.com/glebsmith77/196
Create:
Last Update:

Есть у меня гипотеза: секрет ИИ-революции заключается в синдроме "дикого помещика" у Салтыкова-Щедрина: "Думает, какие он машины из Англии выпишет, чтоб все па‌ром да па‌ром, а холопского духу чтоб нисколько не было". Синдром этот овладел мировыми элитами, раздосадованными необходимостью платить зарплаты и взаимодействовать социально, экономически и политически с т.н. "людьми". Реальность (к моему глубокому сожалению) все больше подтверждает эту гипотезу.

Вышла статья энтузиастов из Стэнфорда. Они "доказывают", что в мире ИИ даже социологические исследования будут проходить без участия "мужика" – человека и в качестве "социолога" и в качестве "респондента".
И вот как:

Авторы обучили большую языковую модель GPT-4 на массиве из 70 опросов жителей США, всего более 100 тыс. участников. Опросы относились к широкому кругу направлений: от психологии и социальной политики до политологии и общественного здравоохранения.

Цель состояла в моделировании реакций людей, относящихся к определенным демографическим подгруппам (по полу, возрасту, образованию, политпредпочтениям и т.д.). После обучения модели выбирался один вопрос из внешнего (не из эксперимента) исследования и устанавливалась корреляция между ответами GPT-4 и реальными данными.

Коэффициент корреляции от 0 до 1, где единица – 100% совпадение ответа модели с ответами живых людей. GPT-4 продемонстрировал достаточно высокий результат - 0,85-0,9. Экспериментаторы сделали и контрольный опыт: провели опрос среди 2659 человек, которые не были социологами, попросив их предсказать результаты социологических вопросов. Корреляция в этом случае составила 0,79. Так авторы сделали вывод о превосходстве модели над людьми.

Вывод традиционный для экспериментов такого рода – "дайте денег и через шаг ИИ сделает ненужным любую форму полевой социологии, потому что будет моделировать результат исследований со 100% точностью, что повлечет экономию средств в размере N миллиардов долларов". Отдельный плюс в отличие от "мясных социологов" модель способна принести результат быстро – в "один клик".

На практике же много вопросов.
1️⃣ точность ответов GPT-4 в исследовании зависела от подсказок - чем больше их было, тем точнее получался результат.
2️⃣ работа подобных моделей требует контролируемых условий и постоянной оценки эффективности со стороны разработчиков. Предсказательная точность языковых моделей в реальных условиях, как правило, падает - в т.ч. из-за накапливающихся погрешностей.

Все это делает модели не настолько удобным, быстрым и дешевым инструментом прогнозирования, как об этом заявляют их создатели. Чтобы контролировать модель, нужно постоянно проводить дублирующие реальные исследования иначе ты никогда не узнаешь, в какой момент ее "ответы" кардинально разойдутся с ответами реальных респондентов. Феномен накопления ошибок на каждом круге работы языковых моделей – известен, что делать с ним непонятно даже теоретически, но это никак не мешает их разработчикам продавать "мир будущего, где человек не нужен".

Даже в идеальных условиях для некоторых подгрупп точность была значительно ниже базовых 0,85: мужчины оказались менее “просчитываемы” - с корреляцией 0,72. А чернокожие – так и вовсе 0,6. В итоге – из описания эксперимента прямо следует, что чем дальше оцениваемый человек отходит от идеала предсказуемости – "пожилая женщина азиатского происхождения", тем меньше можно полагаться на предсказания ИИ.

Еще одна проблема в том, что модели требуют огромных массивов данных для обучения, и без притока новых социологических исследований им останется учиться на данных, которые они сами и сгенерировали - что приведет уже не к ошибкам, а к галлюцинациям. Ну и, чтобы хоть как-то полагаться на модели, придется даже теоретически исключить возможность появления "меняющих все" радикальных раздражителей для общества – войны, эпидемии, политический радикализм, катастрофы.

Энтузиастов это не останавливает. Ведь модели обещают радикальное увеличение прибыли крупных социологических компаний и снижение расходов заказчиков на социсследования через сокращение рабочих мест в отрасли.

BY Глебсмит


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/glebsmith77/196

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The message was not authentic, with the real Zelenskiy soon denying the claim on his official Telegram channel, but the incident highlighted a major problem: disinformation quickly spreads unchecked on the encrypted app. In this regard, Sebi collaborated with the Telecom Regulatory Authority of India (TRAI) to reduce the vulnerability of the securities market to manipulation through misuse of mass communication medium like bulk SMS. Russians and Ukrainians are both prolific users of Telegram. They rely on the app for channels that act as newsfeeds, group chats (both public and private), and one-to-one communication. Since the Russian invasion of Ukraine, Telegram has remained an important lifeline for both Russians and Ukrainians, as a way of staying aware of the latest news and keeping in touch with loved ones. Since its launch in 2013, Telegram has grown from a simple messaging app to a broadcast network. Its user base isn’t as vast as WhatsApp’s, and its broadcast platform is a fraction the size of Twitter, but it’s nonetheless showing its use. While Telegram has been embroiled in controversy for much of its life, it has become a vital source of communication during the invasion of Ukraine. But, if all of this is new to you, let us explain, dear friends, what on Earth a Telegram is meant to be, and why you should, or should not, need to care. He adds: "Telegram has become my primary news source."
from pl


Telegram Глебсмит
FROM American