К 2030 году в России появится пять систем для распознавания видеофейков в СМИ и социальных сетях.
К 2025 году такие системы должны выявлять не менее 70% фейков. На это власти планируют выделить гранты. Планы правительства профинансировать разработку пяти программ по распознаванию сгенерированного контента (deep fakes) значатся в “дорожной карте” развития “Национального общесистемного ПО”, принятой в декабре.
На проекты планируется выделить гранты, их развитием займется Фонд содействия инновациям. Из документа следует, что к 2025 году необходимо представить решение, которое будет способно распознать не менее 70% поддельного контента.
Пользователями технологии, по мнению Минцифры, могут стать новостные, медиа и PR-агентства, которые нуждаются в проверке достоверности информации. Полезна она будет и пользователям, сомневающимся в подлинности аудио и визуального контента.
Конкретные проекты в рамках дорожной карты их реализации и объемы финансирования будут определены позже, добавили в министерстве. На рынке давно есть проблема выявления “дипфейков”, говорят в RecFaces (разрабатывает программы биометрической идентификации на основе искусственного интеллекта). Но там не считают инициативу реализуемой, поскольку формат поддержки проектов в “дорожной карте” предполагает наличие “якорного” заказчика, а в данном случае его пока нет.
В RecFaces также отметили, что существует профессиональный и любительский сгенерированный контент: “Если для любительского контента точности распознавания в 70% может хватить, то для профессионального, с актерами и видеомонтажерами, этого недостаточно, поскольку нужно анализировать дополнительные данные”.
По оценке RecFaces, разработка ПО, которое сможет различать профессиональный сгенерированный контент, может обойтись в миллиарды рублей. Прежде всего точность в 70% означает, что примерно в каждом третьем случае нейросеть будет ошибаться.
Добавим, тема борьбы с “дипфейками” уже не раз поднималась в этом году. Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи, "ВКонтакте" представила собственную функцию “Дипфейк”, а в аналитическом отчёте “Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности” от Сбера технологии Deepfake поставлены в первый ряд опасностей в перспективе ближайших пяти лет.
К 2025 году такие системы должны выявлять не менее 70% фейков. На это власти планируют выделить гранты. Планы правительства профинансировать разработку пяти программ по распознаванию сгенерированного контента (deep fakes) значатся в “дорожной карте” развития “Национального общесистемного ПО”, принятой в декабре.
На проекты планируется выделить гранты, их развитием займется Фонд содействия инновациям. Из документа следует, что к 2025 году необходимо представить решение, которое будет способно распознать не менее 70% поддельного контента.
Пользователями технологии, по мнению Минцифры, могут стать новостные, медиа и PR-агентства, которые нуждаются в проверке достоверности информации. Полезна она будет и пользователям, сомневающимся в подлинности аудио и визуального контента.
Конкретные проекты в рамках дорожной карты их реализации и объемы финансирования будут определены позже, добавили в министерстве. На рынке давно есть проблема выявления “дипфейков”, говорят в RecFaces (разрабатывает программы биометрической идентификации на основе искусственного интеллекта). Но там не считают инициативу реализуемой, поскольку формат поддержки проектов в “дорожной карте” предполагает наличие “якорного” заказчика, а в данном случае его пока нет.
В RecFaces также отметили, что существует профессиональный и любительский сгенерированный контент: “Если для любительского контента точности распознавания в 70% может хватить, то для профессионального, с актерами и видеомонтажерами, этого недостаточно, поскольку нужно анализировать дополнительные данные”.
По оценке RecFaces, разработка ПО, которое сможет различать профессиональный сгенерированный контент, может обойтись в миллиарды рублей. Прежде всего точность в 70% означает, что примерно в каждом третьем случае нейросеть будет ошибаться.
“Глобально это не поможет бороться с фейками. Кроме того, было бы правильнее не создавать технологию с нуля. В условиях современной геополитической обстановки у нас нет трех лет на решение задачи”.
Добавим, тема борьбы с “дипфейками” уже не раз поднималась в этом году. Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи, "ВКонтакте" представила собственную функцию “Дипфейк”, а в аналитическом отчёте “Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности” от Сбера технологии Deepfake поставлены в первый ряд опасностей в перспективе ближайших пяти лет.
Для просмотра ссылки необходимо нажать
Вход или Регистрация