Telegram Group & Telegram Channel
Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.



group-telegram.com/misli_oligarh/6860
Create:
Last Update:

Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.

ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.

Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.

Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.

Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.

Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.

BY FuturoGenesis


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/misli_oligarh/6860

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The Russian invasion of Ukraine has been a driving force in markets for the past few weeks. Perpetrators of such fraud use various marketing techniques to attract subscribers on their social media channels. But the Ukraine Crisis Media Center's Tsekhanovska points out that communications are often down in zones most affected by the war, making this sort of cross-referencing a luxury many cannot afford. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress.
from no


Telegram FuturoGenesis
FROM American