group-telegram.com/gogualive/2028
Last Update:
За год кибератаки с ИИ в России выросли на 37% (Роскомнадзор, 2024). Мошенники теперь не просто воруют — они творят. Подделывают голоса ваших покойных бабушек, штампуют «штрафы» с печатями фанерных министерств и сливают в сеть deepfake-видео, где вы взахлёб читаете стихи Бродского на генг-бэнг вечеринке.
И это, кстати не только у нас.
Южная Корея понимая мировой уровень проблемы инвестирует 9,1 млрд вон в борьбу с ИИ-подделками.
Но восхищаться чужими решениями – «так себе стратегия». — Пора создавать свои!
Вот вам пара примеров самых распространённых преступлений с использованием ИИ подделок:
Deepfake-шантаж.
Вам присылают видео, где вы сидите в сауне с прости…, простите, «барышнями низкой социальной ответственности». И если не переведёте вымогателям свои кровные биткоины – понесёте репутационные риски.
Корпоративный ад чат. Сгенерированный ИИ голос в аудио сообщении требует срочно совершить оплату по счету. Главный бухгалтер "Людочка" слышит голос обожаемого шефа и срочно откладывая чайную церемонию отправляет деньги фирмы в последний путь.
Что критично прямо сейчас?
1. Внедрять, а не копировать.
Зарубежные алгоритмы для анализа аудиоартефактов не учитывают русскоязычный контент. Нужны решения, адаптированные под наши реалии — от диалектов до схем мошенничества.
2. Цифровая грамотность населения.
80% россиян не знают, как отличить deepfake от реального видео (опрос ВЦИОМ, 2024). Федеральная программа цифровой грамотности должна быть проработана до мелочей. От методических материалов, до квалификации конкретных преподавателей на местах.
ИИ-преступность не выбирает, где и кого грабить — она бьёт по слабым. Если мы не начнём вкладываться в защиту сегодня, завтра потеряем не только деньги, но и доверие к цифровому государству. Так не допустим же этого!
И. Гогуа