Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.
ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.
Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.
Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.
Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.
Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.
Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.
ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.
Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.
Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.
Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.
Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.
BY FuturoGenesis
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
READ MORE Individual messages can be fully encrypted. But the user has to turn on that function. It's not automatic, as it is on Signal and WhatsApp. The original Telegram channel has expanded into a web of accounts for different locations, including specific pages made for individual Russian cities. There's also an English-language website, which states it is owned by the people who run the Telegram channels. On Feb. 27, however, he admitted from his Russian-language account that "Telegram channels are increasingly becoming a source of unverified information related to Ukrainian events." Telegram users are able to send files of any type up to 2GB each and access them from any device, with no limit on cloud storage, which has made downloading files more popular on the platform.
from es