Российские власти будут проверять ИИ на угрозу нацбезопасности
Такую программу хотят создать до 2028 года
Правительство России намерено проверять модели искусственного интеллекта (ИИ), обученные на государственных данных, на предмет угрозы национальной безопасности и обороны страны. Об этом пишет «Коммерсантъ».
В 2025−2026 годах проведут научно-исследовательскую разработку принципов анализа ИИ-моделей, обученных на госданных. В 2027−2028 годах создадут и внедрят первую версию программного обеспечения, которое будет отвечать за проверку искусственного интеллекта.
За реализацию проекта, на который из федерального бюджета направят 8,1 млрд руб., отвечает ФСБ. К 2030 году пять систем искусственного интеллекта должны получить подтверждение допустимости безопасного использования.
По словам участников рынка, для обучения ИИ на государственных данных нужны усиленные меры безопасности, а к продукту такого обучения должны иметь доступ только авторизованные пользователи. В числе рисков: утечки данных и искажённые рекомендации из-за ошибок в обучении модели или целенаправленных манипуляций.
Ранее президент России Владимир Путин заявил, что РФ нужно развивать свой суверенный искусственный интеллект. Страна в этой области может быть в числе лидеров.
Российские власти будут проверять ИИ на угрозу нацбезопасности
Такую программу хотят создать до 2028 года
Правительство России намерено проверять модели искусственного интеллекта (ИИ), обученные на государственных данных, на предмет угрозы национальной безопасности и обороны страны. Об этом пишет «Коммерсантъ».
В 2025−2026 годах проведут научно-исследовательскую разработку принципов анализа ИИ-моделей, обученных на госданных. В 2027−2028 годах создадут и внедрят первую версию программного обеспечения, которое будет отвечать за проверку искусственного интеллекта.
За реализацию проекта, на который из федерального бюджета направят 8,1 млрд руб., отвечает ФСБ. К 2030 году пять систем искусственного интеллекта должны получить подтверждение допустимости безопасного использования.
По словам участников рынка, для обучения ИИ на государственных данных нужны усиленные меры безопасности, а к продукту такого обучения должны иметь доступ только авторизованные пользователи. В числе рисков: утечки данных и искажённые рекомендации из-за ошибок в обучении модели или целенаправленных манипуляций.
Ранее президент России Владимир Путин заявил, что РФ нужно развивать свой суверенный искусственный интеллект. Страна в этой области может быть в числе лидеров.
Unlike Silicon Valley giants such as Facebook and Twitter, which run very public anti-disinformation programs, Brooking said: "Telegram is famously lax or absent in its content moderation policy." For example, WhatsApp restricted the number of times a user could forward something, and developed automated systems that detect and flag objectionable content. On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. The Dow Jones Industrial Average fell 230 points, or 0.7%. Meanwhile, the S&P 500 and the Nasdaq Composite dropped 1.3% and 2.2%, respectively. All three indexes began the day with gains before selling off. Russians and Ukrainians are both prolific users of Telegram. They rely on the app for channels that act as newsfeeds, group chats (both public and private), and one-to-one communication. Since the Russian invasion of Ukraine, Telegram has remained an important lifeline for both Russians and Ukrainians, as a way of staying aware of the latest news and keeping in touch with loved ones.
from fr