Notice: file_put_contents(): Write of 5867 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 8192 of 14059 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
⅁‌‌‌‌ garage.digital | Telegram Webview: againstthedigital/184 -
Telegram Group & Telegram Channel
Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.



group-telegram.com/againstthedigital/184
Create:
Last Update:

Разрешит ли ИИ неразрешимые политические споры? Техножурналист Роб Хорнинг рассказывает о новых проектах на базе машинного обучения, которые помогают небольшим группам достичь консенсуса. И настроен он скептически: автоматизацию публичной сферы сложно отличить от технологичной тотальной слежки.

Согласно социологу Юргену Хабермасу, публичная сфера — это место, где производится консенсус. С одной стороны, консенсус не дан заранее — люди сами должны его создать через серию коммуникативных действий. Или, проще говоря, договориться друг с другом — найти убедительные аргументы и придумать компромисс между ними. С другой стороны, в теории Хабермаса не существует никакой вышестоящей инстанции, которая могла бы этот консенсус валидировать. Консенсус рационален — но только постольку, поскольку его произвели рациональные коммуникативные действия.

Недавно в Google создали «Хабермас-машину». Это большая языковая модель, которая, по задумке разработчиков, ускоряет производство согласия в политических вопросах. Вот как она работает: допустим, есть группа людей с политическими разногласиями. Сначала нейросеть собирает мнения у каждого отдельного участника — и, опираясь на эти данные, генерирует некое «усредненное» высказывание. Участники выставляют ему оценки — по ним модель понимает, достигнут ли компромисс. Процесс повторяется до тех пор, пока оценки не достигнут максимума.

Еще один пример — недавний прототип приложения для манипуляции общественным мнением. По задумке разработчиков, оно поможет запускать вирусные информационные кампании в социальных медиа — и так менять реальность. Пользователям рассылаются пуш-уведомления с готовыми текстами, а им остается только их запостить.

Проблема таких «Хабермас-машин» в том, что они, как пишет Хорнинг, подменяют политику псевдо-физикой. То есть некими законами природы, данными свыше — и с которыми нам остается только согласиться. Только место «природы» здесь занимает черная коробка алгоритмов.

Но если вчитаться в самого Хабермаса, то станет понятно, что идея автоматизированной публичной сферы противоречит сама себе. В этих проектах ИИ занимает место высшей инстанции, валидирующей или отвергающий решения сообщества. А Хабермас в своей теории как раз пытался избавиться от этой фигуры рационального суверена.

Еще одна проблема — прагматическая. Разработчики из Google утверждают, что их проект призван помочь сообществу перейти от слов к политическому действию. Но в реальности достижение консенсуса не предшествует действию — а, скорее, идет бок о бок с ним. Если между участниками нет доверия и они не умеют самостоятельно решать конфликты, то их действия быстро потеряют согласованность.

BY ⅁‌‌‌‌ garage.digital




Share with your friend now:
group-telegram.com/againstthedigital/184

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. Some privacy experts say Telegram is not secure enough At this point, however, Durov had already been working on Telegram with his brother, and further planned a mobile-first social network with an explicit focus on anti-censorship. Later in April, he told TechCrunch that he had left Russia and had “no plans to go back,” saying that the nation was currently “incompatible with internet business at the moment.” He added later that he was looking for a country that matched his libertarian ideals to base his next startup. Multiple pro-Kremlin media figures circulated the post's false claims, including prominent Russian journalist Vladimir Soloviev and the state-controlled Russian outlet RT, according to the DFR Lab's report. Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy."
from it


Telegram ⅁‌‌‌‌ garage.digital
FROM American