👀Исследование показало, что 81% способов лечения рака, рекламируемых в соцсетях, являются дезинформацией
В ходе этнографического анализа, проведенного учеными из Лондона, было установлено, что лишь 19% из изученных видео содержали достоверные медицинские рекомендации. Причем выяснилось, что особую уязвимость к дезинформации показало поколение Z - люди, родившиеся, примерно с середины-конца 1990-х до начала 2010-х годов. Для них социальные сети - это ключевой источник медицинской информации и поисковый инструмент. Однако большинство «ловушек», в которые они попали, оказались видео, продающими разные товары.
Среди распространенных ложных рекомендаций оказались известные продукты, такие как масло орегано и абрикосовые косточки, которые не только не помогают в лечении, но и могут быть опасны для здоровья. Примечательно, что 32% видео с дезинформацией использовали теории заговора для легитимации своих утверждений, а некоторые из них цитировали «оппозиционных врачей», которые утверждали, что «чудесные методы» якобы скрываются правительством.
👀Исследование показало, что 81% способов лечения рака, рекламируемых в соцсетях, являются дезинформацией
В ходе этнографического анализа, проведенного учеными из Лондона, было установлено, что лишь 19% из изученных видео содержали достоверные медицинские рекомендации. Причем выяснилось, что особую уязвимость к дезинформации показало поколение Z - люди, родившиеся, примерно с середины-конца 1990-х до начала 2010-х годов. Для них социальные сети - это ключевой источник медицинской информации и поисковый инструмент. Однако большинство «ловушек», в которые они попали, оказались видео, продающими разные товары.
Среди распространенных ложных рекомендаций оказались известные продукты, такие как масло орегано и абрикосовые косточки, которые не только не помогают в лечении, но и могут быть опасны для здоровья. Примечательно, что 32% видео с дезинформацией использовали теории заговора для легитимации своих утверждений, а некоторые из них цитировали «оппозиционных врачей», которые утверждали, что «чудесные методы» якобы скрываются правительством.
Ukrainian forces successfully attacked Russian vehicles in the capital city of Kyiv thanks to a public tip made through the encrypted messaging app Telegram, Ukraine's top law-enforcement agency said on Tuesday. A Russian Telegram channel with over 700,000 followers is spreading disinformation about Russia's invasion of Ukraine under the guise of providing "objective information" and fact-checking fake news. Its influence extends beyond the platform, with major Russian publications, government officials, and journalists citing the page's posts. The account, "War on Fakes," was created on February 24, the same day Russian President Vladimir Putin announced a "special military operation" and troops began invading Ukraine. The page is rife with disinformation, according to The Atlantic Council's Digital Forensic Research Lab, which studies digital extremism and published a report examining the channel. At its heart, Telegram is little more than a messaging app like WhatsApp or Signal. But it also offers open channels that enable a single user, or a group of users, to communicate with large numbers in a method similar to a Twitter account. This has proven to be both a blessing and a curse for Telegram and its users, since these channels can be used for both good and ill. Right now, as Wired reports, the app is a key way for Ukrainians to receive updates from the government during the invasion. The War on Fakes channel has repeatedly attempted to push conspiracies that footage from Ukraine is somehow being falsified. One post on the channel from February 24 claimed without evidence that a widely viewed photo of a Ukrainian woman injured in an airstrike in the city of Chuhuiv was doctored and that the woman was seen in a different photo days later without injuries. The post, which has over 600,000 views, also baselessly claimed that the woman's blood was actually makeup or grape juice.
from us