Telegram Group & Telegram Channel
Есть у меня гипотеза: секрет ИИ-революции заключается в синдроме "дикого помещика" у Салтыкова-Щедрина: "Думает, какие он машины из Англии выпишет, чтоб все па‌ром да па‌ром, а холопского духу чтоб нисколько не было". Синдром этот овладел мировыми элитами, раздосадованными необходимостью платить зарплаты и взаимодействовать социально, экономически и политически с т.н. "людьми". Реальность (к моему глубокому сожалению) все больше подтверждает эту гипотезу.

Вышла статья энтузиастов из Стэнфорда. Они "доказывают", что в мире ИИ даже социологические исследования будут проходить без участия "мужика" – человека и в качестве "социолога" и в качестве "респондента".
И вот как:

Авторы обучили большую языковую модель GPT-4 на массиве из 70 опросов жителей США, всего более 100 тыс. участников. Опросы относились к широкому кругу направлений: от психологии и социальной политики до политологии и общественного здравоохранения.

Цель состояла в моделировании реакций людей, относящихся к определенным демографическим подгруппам (по полу, возрасту, образованию, политпредпочтениям и т.д.). После обучения модели выбирался один вопрос из внешнего (не из эксперимента) исследования и устанавливалась корреляция между ответами GPT-4 и реальными данными.

Коэффициент корреляции от 0 до 1, где единица – 100% совпадение ответа модели с ответами живых людей. GPT-4 продемонстрировал достаточно высокий результат - 0,85-0,9. Экспериментаторы сделали и контрольный опыт: провели опрос среди 2659 человек, которые не были социологами, попросив их предсказать результаты социологических вопросов. Корреляция в этом случае составила 0,79. Так авторы сделали вывод о превосходстве модели над людьми.

Вывод традиционный для экспериментов такого рода – "дайте денег и через шаг ИИ сделает ненужным любую форму полевой социологии, потому что будет моделировать результат исследований со 100% точностью, что повлечет экономию средств в размере N миллиардов долларов". Отдельный плюс в отличие от "мясных социологов" модель способна принести результат быстро – в "один клик".

На практике же много вопросов.
1️⃣ точность ответов GPT-4 в исследовании зависела от подсказок - чем больше их было, тем точнее получался результат.
2️⃣ работа подобных моделей требует контролируемых условий и постоянной оценки эффективности со стороны разработчиков. Предсказательная точность языковых моделей в реальных условиях, как правило, падает - в т.ч. из-за накапливающихся погрешностей.

Все это делает модели не настолько удобным, быстрым и дешевым инструментом прогнозирования, как об этом заявляют их создатели. Чтобы контролировать модель, нужно постоянно проводить дублирующие реальные исследования иначе ты никогда не узнаешь, в какой момент ее "ответы" кардинально разойдутся с ответами реальных респондентов. Феномен накопления ошибок на каждом круге работы языковых моделей – известен, что делать с ним непонятно даже теоретически, но это никак не мешает их разработчикам продавать "мир будущего, где человек не нужен".

Даже в идеальных условиях для некоторых подгрупп точность была значительно ниже базовых 0,85: мужчины оказались менее “просчитываемы” - с корреляцией 0,72. А чернокожие – так и вовсе 0,6. В итоге – из описания эксперимента прямо следует, что чем дальше оцениваемый человек отходит от идеала предсказуемости – "пожилая женщина азиатского происхождения", тем меньше можно полагаться на предсказания ИИ.

Еще одна проблема в том, что модели требуют огромных массивов данных для обучения, и без притока новых социологических исследований им останется учиться на данных, которые они сами и сгенерировали - что приведет уже не к ошибкам, а к галлюцинациям. Ну и, чтобы хоть как-то полагаться на модели, придется даже теоретически исключить возможность появления "меняющих все" радикальных раздражителей для общества – войны, эпидемии, политический радикализм, катастрофы.

Энтузиастов это не останавливает. Ведь модели обещают радикальное увеличение прибыли крупных социологических компаний и снижение расходов заказчиков на социсследования через сокращение рабочих мест в отрасли.



group-telegram.com/glebsmith77/196
Create:
Last Update:

Есть у меня гипотеза: секрет ИИ-революции заключается в синдроме "дикого помещика" у Салтыкова-Щедрина: "Думает, какие он машины из Англии выпишет, чтоб все па‌ром да па‌ром, а холопского духу чтоб нисколько не было". Синдром этот овладел мировыми элитами, раздосадованными необходимостью платить зарплаты и взаимодействовать социально, экономически и политически с т.н. "людьми". Реальность (к моему глубокому сожалению) все больше подтверждает эту гипотезу.

Вышла статья энтузиастов из Стэнфорда. Они "доказывают", что в мире ИИ даже социологические исследования будут проходить без участия "мужика" – человека и в качестве "социолога" и в качестве "респондента".
И вот как:

Авторы обучили большую языковую модель GPT-4 на массиве из 70 опросов жителей США, всего более 100 тыс. участников. Опросы относились к широкому кругу направлений: от психологии и социальной политики до политологии и общественного здравоохранения.

Цель состояла в моделировании реакций людей, относящихся к определенным демографическим подгруппам (по полу, возрасту, образованию, политпредпочтениям и т.д.). После обучения модели выбирался один вопрос из внешнего (не из эксперимента) исследования и устанавливалась корреляция между ответами GPT-4 и реальными данными.

Коэффициент корреляции от 0 до 1, где единица – 100% совпадение ответа модели с ответами живых людей. GPT-4 продемонстрировал достаточно высокий результат - 0,85-0,9. Экспериментаторы сделали и контрольный опыт: провели опрос среди 2659 человек, которые не были социологами, попросив их предсказать результаты социологических вопросов. Корреляция в этом случае составила 0,79. Так авторы сделали вывод о превосходстве модели над людьми.

Вывод традиционный для экспериментов такого рода – "дайте денег и через шаг ИИ сделает ненужным любую форму полевой социологии, потому что будет моделировать результат исследований со 100% точностью, что повлечет экономию средств в размере N миллиардов долларов". Отдельный плюс в отличие от "мясных социологов" модель способна принести результат быстро – в "один клик".

На практике же много вопросов.
1️⃣ точность ответов GPT-4 в исследовании зависела от подсказок - чем больше их было, тем точнее получался результат.
2️⃣ работа подобных моделей требует контролируемых условий и постоянной оценки эффективности со стороны разработчиков. Предсказательная точность языковых моделей в реальных условиях, как правило, падает - в т.ч. из-за накапливающихся погрешностей.

Все это делает модели не настолько удобным, быстрым и дешевым инструментом прогнозирования, как об этом заявляют их создатели. Чтобы контролировать модель, нужно постоянно проводить дублирующие реальные исследования иначе ты никогда не узнаешь, в какой момент ее "ответы" кардинально разойдутся с ответами реальных респондентов. Феномен накопления ошибок на каждом круге работы языковых моделей – известен, что делать с ним непонятно даже теоретически, но это никак не мешает их разработчикам продавать "мир будущего, где человек не нужен".

Даже в идеальных условиях для некоторых подгрупп точность была значительно ниже базовых 0,85: мужчины оказались менее “просчитываемы” - с корреляцией 0,72. А чернокожие – так и вовсе 0,6. В итоге – из описания эксперимента прямо следует, что чем дальше оцениваемый человек отходит от идеала предсказуемости – "пожилая женщина азиатского происхождения", тем меньше можно полагаться на предсказания ИИ.

Еще одна проблема в том, что модели требуют огромных массивов данных для обучения, и без притока новых социологических исследований им останется учиться на данных, которые они сами и сгенерировали - что приведет уже не к ошибкам, а к галлюцинациям. Ну и, чтобы хоть как-то полагаться на модели, придется даже теоретически исключить возможность появления "меняющих все" радикальных раздражителей для общества – войны, эпидемии, политический радикализм, катастрофы.

Энтузиастов это не останавливает. Ведь модели обещают радикальное увеличение прибыли крупных социологических компаний и снижение расходов заказчиков на социсследования через сокращение рабочих мест в отрасли.

BY Глебсмит


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/glebsmith77/196

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The news also helped traders look past another report showing decades-high inflation and shake off some of the volatility from recent sessions. The Bureau of Labor Statistics' February Consumer Price Index (CPI) this week showed another surge in prices even before Russia escalated its attacks in Ukraine. The headline CPI — soaring 7.9% over last year — underscored the sticky inflationary pressures reverberating across the U.S. economy, with everything from groceries to rents and airline fares getting more expensive for everyday consumers. Official government accounts have also spread fake fact checks. An official Twitter account for the Russia diplomatic mission in Geneva shared a fake debunking video claiming without evidence that "Western and Ukrainian media are creating thousands of fake news on Russia every day." The video, which has amassed almost 30,000 views, offered a "how-to" spot misinformation. That hurt tech stocks. For the past few weeks, the 10-year yield has traded between 1.72% and 2%, as traders moved into the bond for safety when Russia headlines were ugly—and out of it when headlines improved. Now, the yield is touching its pandemic-era high. If the yield breaks above that level, that could signal that it’s on a sustainable path higher. Higher long-dated bond yields make future profits less valuable—and many tech companies are valued on the basis of profits forecast for many years in the future. As the war in Ukraine rages, the messaging app Telegram has emerged as the go-to place for unfiltered live war updates for both Ukrainian refugees and increasingly isolated Russians alike. Apparently upbeat developments in Russia's discussions with Ukraine helped at least temporarily send investors back into risk assets. Russian President Vladimir Putin said during a meeting with his Belarusian counterpart Alexander Lukashenko that there were "certain positive developments" occurring in the talks with Ukraine, according to a transcript of their meeting. Putin added that discussions were happening "almost on a daily basis."
from ms


Telegram Глебсмит
FROM American