Telegram Group & Telegram Channel
Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.



group-telegram.com/againstthedigital/184
Create:
Last Update:

Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/184

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

"Like the bombing of the maternity ward in Mariupol," he said, "Even before it hits the news, you see the videos on the Telegram channels." This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors. The perpetrators use various names to carry out the investment scams. They may also impersonate or clone licensed capital market intermediaries by using the names, logos, credentials, websites and other details of the legitimate entities to promote the illegal schemes. He floated the idea of restricting the use of Telegram in Ukraine and Russia, a suggestion that was met with fierce opposition from users. Shortly after, Durov backed off the idea. On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations.
from br


Telegram ⅁‌‌‌‌ garage.digital
FROM American