Telegram Group & Telegram Channel
ChatGPT: Аппроксимация доксы

Главный аргумент против больших языковых моделей (LLM) касается так называемой "экзистенциальной угрозы". Она заключается в скором появлении сильного искусственного интеллекта, который будет умней всего человечества вместе взятого, и почему-то захочет уничтожить его. Под это дело в ЕС уже кинулись разбираться с технологией привычными методами: либо запретить, либо отдать на откуп бюрократам. Координацией усилий занимается кембриджский Центр изучения экзистенциального риска, консультирующий английское правительство. Его возглавляет не абы кто, а целый барон Мартин Рис - бывший президент Королевского общества и придворный астролог астроном.

Почему европейцы так взъелись на технологию генерирования текста? Если вспомнить предыдущих кандидатов на роль глобально угрозы, можно понять, что дело в борьбе против американского технологического превосходства. Начиная с 50-х годов прошлого века материально-технической базой Скайнета среди прочего успели побывать ламповые компьютеры и интернет. Первые были основой американской промышленной революции, а второй - средством контроля информации в мировом масштабе. На этих технологиях США построили и до сих пор удерживают свою гегемонию. За счет LLM они собираются остаться на вершине мира в XXI веке.

Реальное ноу-хау технологии заключается вовсе не в автоматизации рабочих мест пролетариата умственного труда. Смысл ChatGPT - это аппроксимация доксы.

Технология работает следующим образом: вы передаете модели последовательность слов, а она подбирает самое вероятное следующее. Вероятность высчитывается исходя из текстов, использовавшихся для обучения. То есть, для ввода "мама мыла" самым вероятным выводом будет "раму". Магия с генерированием "осмысленных" текстов появляется, если обучить систему на колоссальных объемах информации, которые покрывают все возможные бытовые темы для разговора. Например, на всем реддите или твиттере. После этого нейросеть начнет выдавать грамматически осмысленное "мнение", являющееся среднестатистическим для авторов обучающего контента - реддиторов или твиттеровских. Это работает даже для вопросов, явного ответа на которые не было в обучающих данных. Другими словами, LLM аппроксимирует доксические высказывания по любым темам.

Эта технология обессмысливает существование массовой политики, которая собирает реакции масс, а потом на основе их анализа формирует и доносит до людей властные императивы. Теперь исследовать предубеждения и базовые реакции можно просто задавая вопросы большой языковой модели. Она же сгенерирует сколь угодно таргетированные пропагандистские послания, которые всегда будут бить в прямо цель. Единый электоральный спектакль, удерживающий общественное единство, становится ненужен.

Практически это означает полную автоматизацию государства и его неуязвимость к инспирациям через большие массы людей. LLM сделают с бюрократией то же самое, что антропоморфные роботы - с экономикой. Они исключат "человеческий фактор". Но если роботы обесценят для государства тела людей, то нейросети - их души.

ПС. Сначала хотел подробно написать про экзистенциальные угрозы и сингуляризм, но текст вылез за телеграмовский лимит. Поэтому решил вынести это на бусти, расширив и связав с ранней историей ИИ.

Чат || Подписка && Оглавление



group-telegram.com/hyperhistory/156
Create:
Last Update:

ChatGPT: Аппроксимация доксы

Главный аргумент против больших языковых моделей (LLM) касается так называемой "экзистенциальной угрозы". Она заключается в скором появлении сильного искусственного интеллекта, который будет умней всего человечества вместе взятого, и почему-то захочет уничтожить его. Под это дело в ЕС уже кинулись разбираться с технологией привычными методами: либо запретить, либо отдать на откуп бюрократам. Координацией усилий занимается кембриджский Центр изучения экзистенциального риска, консультирующий английское правительство. Его возглавляет не абы кто, а целый барон Мартин Рис - бывший президент Королевского общества и придворный астролог астроном.

Почему европейцы так взъелись на технологию генерирования текста? Если вспомнить предыдущих кандидатов на роль глобально угрозы, можно понять, что дело в борьбе против американского технологического превосходства. Начиная с 50-х годов прошлого века материально-технической базой Скайнета среди прочего успели побывать ламповые компьютеры и интернет. Первые были основой американской промышленной революции, а второй - средством контроля информации в мировом масштабе. На этих технологиях США построили и до сих пор удерживают свою гегемонию. За счет LLM они собираются остаться на вершине мира в XXI веке.

Реальное ноу-хау технологии заключается вовсе не в автоматизации рабочих мест пролетариата умственного труда. Смысл ChatGPT - это аппроксимация доксы.

Технология работает следующим образом: вы передаете модели последовательность слов, а она подбирает самое вероятное следующее. Вероятность высчитывается исходя из текстов, использовавшихся для обучения. То есть, для ввода "мама мыла" самым вероятным выводом будет "раму". Магия с генерированием "осмысленных" текстов появляется, если обучить систему на колоссальных объемах информации, которые покрывают все возможные бытовые темы для разговора. Например, на всем реддите или твиттере. После этого нейросеть начнет выдавать грамматически осмысленное "мнение", являющееся среднестатистическим для авторов обучающего контента - реддиторов или твиттеровских. Это работает даже для вопросов, явного ответа на которые не было в обучающих данных. Другими словами, LLM аппроксимирует доксические высказывания по любым темам.

Эта технология обессмысливает существование массовой политики, которая собирает реакции масс, а потом на основе их анализа формирует и доносит до людей властные императивы. Теперь исследовать предубеждения и базовые реакции можно просто задавая вопросы большой языковой модели. Она же сгенерирует сколь угодно таргетированные пропагандистские послания, которые всегда будут бить в прямо цель. Единый электоральный спектакль, удерживающий общественное единство, становится ненужен.

Практически это означает полную автоматизацию государства и его неуязвимость к инспирациям через большие массы людей. LLM сделают с бюрократией то же самое, что антропоморфные роботы - с экономикой. Они исключат "человеческий фактор". Но если роботы обесценят для государства тела людей, то нейросети - их души.

ПС. Сначала хотел подробно написать про экзистенциальные угрозы и сингуляризм, но текст вылез за телеграмовский лимит. Поэтому решил вынести это на бусти, расширив и связав с ранней историей ИИ.

Чат || Подписка && Оглавление

BY История гиперинформации


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/hyperhistory/156

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Two days after Russia invaded Ukraine, an account on the Telegram messaging platform posing as President Volodymyr Zelenskiy urged his armed forces to surrender. If you initiate a Secret Chat, however, then these communications are end-to-end encrypted and are tied to the device you are using. That means it’s less convenient to access them across multiple platforms, but you are at far less risk of snooping. Back in the day, Secret Chats received some praise from the EFF, but the fact that its standard system isn’t as secure earned it some criticism. If you’re looking for something that is considered more reliable by privacy advocates, then Signal is the EFF’s preferred platform, although that too is not without some caveats. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. Pavel Durov, a billionaire who embraces an all-black wardrobe and is often compared to the character Neo from "the Matrix," funds Telegram through his personal wealth and debt financing. And despite being one of the world's most popular tech companies, Telegram reportedly has only about 30 employees who defer to Durov for most major decisions about the platform. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children.
from us


Telegram История гиперинформации
FROM American