Notice: file_put_contents(): Write of 5867 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 8192 of 14059 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
⅁‌‌‌‌ garage.digital | Telegram Webview: againstthedigital/184 -
Telegram Group & Telegram Channel
Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.



group-telegram.com/againstthedigital/184
Create:
Last Update:

Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/184

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Telegram has become more interventionist over time, and has steadily increased its efforts to shut down these accounts. But this has also meant that the company has also engaged with lawmakers more generally, although it maintains that it doesn’t do so willingly. For instance, in September 2021, Telegram reportedly blocked a chat bot in support of (Putin critic) Alexei Navalny during Russia’s most recent parliamentary elections. Pavel Durov was quoted at the time saying that the company was obliged to follow a “legitimate” law of the land. He added that as Apple and Google both follow the law, to violate it would give both platforms a reason to boot the messenger from its stores. This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors. During the operations, Sebi officials seized various records and documents, including 34 mobile phones, six laptops, four desktops, four tablets, two hard drive disks and one pen drive from the custody of these persons. In 2018, Russia banned Telegram although it reversed the prohibition two years later. 'Wild West'
from jp


Telegram ⅁‌‌‌‌ garage.digital
FROM American