Notice: file_put_contents(): Write of 5867 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 8192 of 14059 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
⅁‌‌‌‌ garage.digital | Telegram Webview: againstthedigital/184 -
Telegram Group & Telegram Channel
Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.



group-telegram.com/againstthedigital/184
Create:
Last Update:

Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/184

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

He floated the idea of restricting the use of Telegram in Ukraine and Russia, a suggestion that was met with fierce opposition from users. Shortly after, Durov backed off the idea. Oleksandra Matviichuk, a Kyiv-based lawyer and head of the Center for Civil Liberties, called Durov’s position "very weak," and urged concrete improvements. Telegram has gained a reputation as the “secure” communications app in the post-Soviet states, but whenever you make choices about your digital security, it’s important to start by asking yourself, “What exactly am I securing? And who am I securing it from?” These questions should inform your decisions about whether you are using the right tool or platform for your digital security needs. Telegram is certainly not the most secure messaging app on the market right now. Its security model requires users to place a great deal of trust in Telegram’s ability to protect user data. For some users, this may be good enough for now. For others, it may be wiser to move to a different platform for certain kinds of high-risk communications. Multiple pro-Kremlin media figures circulated the post's false claims, including prominent Russian journalist Vladimir Soloviev and the state-controlled Russian outlet RT, according to the DFR Lab's report. Either way, Durov says that he withdrew his resignation but that he was ousted from his company anyway. Subsequently, control of the company was reportedly handed to oligarchs Alisher Usmanov and Igor Sechin, both allegedly close associates of Russian leader Vladimir Putin.
from tw


Telegram ⅁‌‌‌‌ garage.digital
FROM American