Notice: file_put_contents(): Write of 5867 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 8192 of 14059 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
⅁‌‌‌‌ garage.digital | Telegram Webview: againstthedigital/184 -
Telegram Group & Telegram Channel
Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.



group-telegram.com/againstthedigital/184
Create:
Last Update:

Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/184

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Perpetrators of such fraud use various marketing techniques to attract subscribers on their social media channels. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. "This time we received the coordinates of enemy vehicles marked 'V' in Kyiv region," it added. "Someone posing as a Ukrainian citizen just joins the chat and starts spreading misinformation, or gathers data, like the location of shelters," Tsekhanovska said, noting how false messages have urged Ukrainians to turn off their phones at a specific time of night, citing cybersafety. Continuing its crackdown against entities allegedly involved in a front-running scam using messaging app Telegram, Sebi on Thursday carried out search and seizure operations at the premises of eight entities in multiple locations across the country.
from us


Telegram ⅁‌‌‌‌ garage.digital
FROM American