Notice: file_put_contents(): Write of 8721 bytes failed with errno=28 No space left on device in /var/www/group-telegram/post.php on line 50

Warning: file_put_contents(): Only 4096 of 12817 bytes written, possibly out of free disk space in /var/www/group-telegram/post.php on line 50
FuturoGenesis | Telegram Webview: misli_oligarh/6860 -
Telegram Group & Telegram Channel
Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.



group-telegram.com/misli_oligarh/6860
Create:
Last Update:

Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.

BY FuturoGenesis


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/misli_oligarh/6860

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The channel appears to be part of the broader information war that has developed following Russia's invasion of Ukraine. The Kremlin has paid Russian TikTok influencers to push propaganda, according to a Vice News investigation, while ProPublica found that fake Russian fact check videos had been viewed over a million times on Telegram. "The result is on this photo: fiery 'greetings' to the invaders," the Security Service of Ukraine wrote alongside a photo showing several military vehicles among plumes of black smoke. On December 23rd, 2020, Pavel Durov posted to his channel that the company would need to start generating revenue. In early 2021, he added that any advertising on the platform would not use user data for targeting, and that it would be focused on “large one-to-many channels.” He pledged that ads would be “non-intrusive” and that most users would simply not notice any change. In addition, Telegram's architecture limits the ability to slow the spread of false information: the lack of a central public feed, and the fact that comments are easily disabled in channels, reduce the space for public pushback. This provided opportunity to their linked entities to offload their shares at higher prices and make significant profits at the cost of unsuspecting retail investors.
from de


Telegram FuturoGenesis
FROM American