Telegram Group & Telegram Channel
Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.



group-telegram.com/misli_oligarh/6860
Create:
Last Update:

Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.

BY FuturoGenesis


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/misli_oligarh/6860

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

During the operations, Sebi officials seized various records and documents, including 34 mobile phones, six laptops, four desktops, four tablets, two hard drive disks and one pen drive from the custody of these persons. Russian President Vladimir Putin launched Russia's invasion of Ukraine in the early-morning hours of February 24, targeting several key cities with military strikes. The fake Zelenskiy account reached 20,000 followers on Telegram before it was shut down, a remedial action that experts say is all too rare. In 2018, Russia banned Telegram although it reversed the prohibition two years later. The channel appears to be part of the broader information war that has developed following Russia's invasion of Ukraine. The Kremlin has paid Russian TikTok influencers to push propaganda, according to a Vice News investigation, while ProPublica found that fake Russian fact check videos had been viewed over a million times on Telegram.
from br


Telegram FuturoGenesis
FROM American