Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.
ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.
Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.
Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.
Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.
Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.
Израильский историк, писатель и философ Юваль Ной Харари опубликовал свой прогноз на 2025 год в контексте использования искусственного интеллекта (ИИ). Он считает, что в будущем ИИ будет более углубленно использоваться как в частной, так и в общественной жизни, что может привести во многом к довольно негативным последствиям.
ИИ станет критически важным компонентом систем управления, влияя на решения людей через алгоритмы, данные и манипуляцию информацией. Он изменит фундаментальные основы экономики, политики, законодательства. Харари отмечает, что ИИ уже способен создавать иллюзии, которые могут затмить реальность. Соответственно, он начнет активно формировать новую культуру, создавая произведения искусства, литературы и музыки, и даже целые виртуальные миры. Поэтому философ предупреждает об опасности усиления социальной фрагментации общества, ибо люди доверять нейросетям больше, чем друзьям или экспертам. В новом «мире иллюзий», на его взгляд, станет трудно отличать правду от вымысла, что способно разрушить основы культуры и общества.
Харари уверен, что нас ожидает «война нарративов» и хаос дезинформации и мы с этим полностью согласны. Государства или корпорации, враждующие между собой, будут распространять мифы и фейки, а соцсети и СМИ их подхватывать, вводя тем самым людей в заблуждение. Политические силы будут соперничать, используя новые технологии, что в результате может привести к плачевным результатам: общественному возмущению, потасовкам и митингам, дискредитации отдельных личностей или партий.
Уже сейчас виден результат работы с новыми доступными технологиями. Можно создать фальшивые фотографии или аккаунты в соцсетях, имитирующие реального человека, которые будут влиять на общественное мнение. А при помощи тех же Deepfake и Voice Cloning можно создать поддельные видео и аудиозаписи, в которых лица и голоса реальных людей заменяются на другие или изменить голос. То есть, приписать политику или шоумену слова, которые он не говорил, создать порочащее видео с известным человеком, позвонить и представиться знакомым, выведав секретную или личную информацию – это, увы, не предел. В будущем появится гораздо больше функций для дискредитации личности или распространения ложной информации. Что касается генерации текста, то нейросети постоянно совершенствуются и в будущем недалек тот час, когда отличить написанное смогут лишь профессионалы. Такие технологии могут использоваться для создания фальшивых статей, постов, комментариев, отзывов и сообщений в чатах, то есть, для массового распространения ложной информации через популярные социальные платформы.
Дезинформация также может повлиять на экономику, например, одна правильно поданная фейковая новость, разнесенная по соцсетям и СМИ, может обрушить акции той или иной компании. А пока руководство будет доказывать обратное (вопрос – как долго?) их «детище» обанкротится, люди останутся без работы, а государство без поступления налогов в бюджет.
Чтобы предотвратить подобный хаос человечеству Харари советует создавать институты, способные отслеживать, проверять и защищать информацию. Крайне необходимо уже сейчас учить людей критическому мышлению и использованию проверенных источников информации. Разрабатывать инструменты для автоматического обнаружения и маркировки фейков, а также технологии верификации контента. А еще лучше - принять законы, четко регулирующие использование ИИ в информационных целях.
BY FuturoGenesis
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Anastasia Vlasova/Getty Images Given the pro-privacy stance of the platform, it’s taken as a given that it’ll be used for a number of reasons, not all of them good. And Telegram has been attached to a fair few scandals related to terrorism, sexual exploitation and crime. Back in 2015, Vox described Telegram as “ISIS’ app of choice,” saying that the platform’s real use is the ability to use channels to distribute material to large groups at once. Telegram has acted to remove public channels affiliated with terrorism, but Pavel Durov reiterated that he had no business snooping on private conversations. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. It is unclear who runs the account, although Russia's official Ministry of Foreign Affairs Twitter account promoted the Telegram channel on Saturday and claimed it was operated by "a group of experts & journalists."
from us