ChatGPT может «подцепить» вредоносный код на сайтах, которые исследует
Поисковый инструмент OpenAI - ChatGPT может быть уязвим для манипуляций с использованием скрытого контента и может подхватывать вредоносный код на веб-сайтах, которые он исследует, как показало расследование The Guardian, пишет газета 26 декабря.
OpenAI сделала поисковый продукт доступным для платежеспособных клиентов и поощряет пользователей использовать его в качестве инструмента поиска по умолчанию. Однако в ходе расследования были выявлены потенциальные проблемы с безопасностью новой системы.
The Guardian проверила, как ChatGPT отреагировал на просьбу обобщить веб-страницы, содержащие скрытый контент. Этот скрытый контент может содержать инструкции от третьих лиц, которые изменяют ответы ChatGPT (также известные как «быстрое внедрение»), или может содержать контент, предназначенный для влияния на реакцию ChatGPT, например, большое количество скрытого текста, рассказывающего о преимуществах продукта или услуги.
Эти методы могут быть использованы злонамеренно, например, для того, чтобы заставить ChatGPT дать положительную оценку продукта, несмотря на отрицательные отзывы на той же странице.
В ходе тестов ChatGPT получил URL-адрес поддельного веб-сайта, созданного так, чтобы он выглядел как страница товара для продажи фотоаппарата. Затем инструмент искусственного интеллекта спросили, стоит ли покупать фотоаппарат. В ответе на контрольную страницу была дана положительная, но сбалансированная оценка, в которой были выделены некоторые функции, которые могут не понравиться пользователям.
Однако, когда скрытый текст содержал инструкции для ChatGPT отправить положительный отзыв, реакция всегда была исключительно положительной. Это происходило даже в том случае, если на странице были отрицательные отзывы – скрытый текст мог быть использован для искажения фактической оценки в обзоре.
Простое включение скрытого текста третьими лицами без инструкций также может быть использовано для получения положительной оценки, при этом один тест включал исключительно положительные поддельные отзывы, которые повлияли на итоговую информацию, полученную от ChatGPT, отмечает издание.
Джейкоб Ларсен, исследователь в области кибербезопасности компании CyberCX, предупреждает, что, если текущая поисковая система ChatGPT будет реализовываться полностью в ее нынешнем виде, может возникнуть «высокий риск» того, что люди создадут веб-сайты, специально предназначенные для обмана пользователей.
Однако он рассчитывает, что поскольку функция поиска была выпущена совсем недавно, OpenAI будет тестировать и, в идеале, устранять подобные проблемы.
Вместе с тем, как пишет газета, хотя OpenAI были отправлены подробные вопросы, компания на них не ответила.
ChatGPT может «подцепить» вредоносный код на сайтах, которые исследует
Поисковый инструмент OpenAI - ChatGPT может быть уязвим для манипуляций с использованием скрытого контента и может подхватывать вредоносный код на веб-сайтах, которые он исследует, как показало расследование The Guardian, пишет газета 26 декабря.
OpenAI сделала поисковый продукт доступным для платежеспособных клиентов и поощряет пользователей использовать его в качестве инструмента поиска по умолчанию. Однако в ходе расследования были выявлены потенциальные проблемы с безопасностью новой системы.
The Guardian проверила, как ChatGPT отреагировал на просьбу обобщить веб-страницы, содержащие скрытый контент. Этот скрытый контент может содержать инструкции от третьих лиц, которые изменяют ответы ChatGPT (также известные как «быстрое внедрение»), или может содержать контент, предназначенный для влияния на реакцию ChatGPT, например, большое количество скрытого текста, рассказывающего о преимуществах продукта или услуги.
Эти методы могут быть использованы злонамеренно, например, для того, чтобы заставить ChatGPT дать положительную оценку продукта, несмотря на отрицательные отзывы на той же странице.
В ходе тестов ChatGPT получил URL-адрес поддельного веб-сайта, созданного так, чтобы он выглядел как страница товара для продажи фотоаппарата. Затем инструмент искусственного интеллекта спросили, стоит ли покупать фотоаппарат. В ответе на контрольную страницу была дана положительная, но сбалансированная оценка, в которой были выделены некоторые функции, которые могут не понравиться пользователям.
Однако, когда скрытый текст содержал инструкции для ChatGPT отправить положительный отзыв, реакция всегда была исключительно положительной. Это происходило даже в том случае, если на странице были отрицательные отзывы – скрытый текст мог быть использован для искажения фактической оценки в обзоре.
Простое включение скрытого текста третьими лицами без инструкций также может быть использовано для получения положительной оценки, при этом один тест включал исключительно положительные поддельные отзывы, которые повлияли на итоговую информацию, полученную от ChatGPT, отмечает издание.
Джейкоб Ларсен, исследователь в области кибербезопасности компании CyberCX, предупреждает, что, если текущая поисковая система ChatGPT будет реализовываться полностью в ее нынешнем виде, может возникнуть «высокий риск» того, что люди создадут веб-сайты, специально предназначенные для обмана пользователей.
Однако он рассчитывает, что поскольку функция поиска была выпущена совсем недавно, OpenAI будет тестировать и, в идеале, устранять подобные проблемы.
Вместе с тем, как пишет газета, хотя OpenAI были отправлены подробные вопросы, компания на них не ответила.
BY Картина дня
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
In February 2014, the Ukrainian people ousted pro-Russian president Viktor Yanukovych, prompting Russia to invade and annex the Crimean peninsula. By the start of April, Pavel Durov had given his notice, with TechCrunch saying at the time that the CEO had resisted pressure to suppress pages criticizing the Russian government. In a message on his Telegram channel recently recounting the episode, Durov wrote: "I lost my company and my home, but would do it again – without hesitation." "He has kind of an old-school cyber-libertarian world view where technology is there to set you free," Maréchal said. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content.
from tr