Статья Как распознать дипфейки

fenix

Эксперт
Команда форума
Судья
ПРОВЕРЕННЫЙ ПРОДАВЕЦ ⭐⭐⭐⭐⭐
Private Club
Регистрация
26/8/16
Сообщения
9.674
Репутация
53.002
Реакции
52.759
RUB
10.000
Депозит
300 000 рублей
Сделок через гаранта
208
Кампании по дезинформации используют мощные инструменты, побуждающие правительства обращаться за опытом к стартапам в области искусственного интеллекта, которые могут помочь распознать дипфейки.

Злоумышленники используют искусственный интеллект для создания видеороликов, выдающих себя за политиков и знаменитостей. По меньшей мере вредоносными являются глупые и явно фальшивые кадры, на которых, похоже, президенты США вместе играют в Minecraft, но в худшем случае технология может представлять реальную угрозу для национальной безопасности.

В 2018 году комик, ставший оскароносным режиссером Джордан Пил, выступил с предупреждением для общественности в виде одной из первых подделок, которая стала вирусной. На видео демонстрировался Барак Обама, произносящий фразы, которые выходят далеко за рамки его обычной речи, включая неожиданное: "Не спите, суки!"
Выпускник Йельского университета Риджул Гупта наткнулся на видео и был мгновенно поражен мощью искусственного интеллекта. В его голове начали проноситься бесконечные возможности, как положительные, так и отрицательные, вспоминал он в недавнем интервью Decrypt — и он понял, что миру нужна компания с "этическим уклоном”, которая уделяет внимание космосу.

В результате он и его коллега, выпускница Йельского университета и эксперт по лингвистике Эмма Браун стали соучредителями DeepMedia - компании, которая занимается разоблачением технологии глубокой подделки.

У DeepMedia есть два продукта: DubSync, сервис перевода и дубляжа с использованием искусственного интеллекта, и DeepIdentify.AI, служба обнаружения подделок. Последнее является их основным предложением, которое привело к недавнему трехлетнему контракту на 25 миллионов долларов с Министерством обороны США (DoD).

Как это работает?

DeepIdentity.Искусственный интеллект просматривает фотографию или видео в поисках несоответствий или неточностей, которые указывают на то, что изображение или отснятый материал являются подделкой. Распространенные отличительные признаки включают в себя такие вещи, как неестественно подрагивающий рот или тени, которые физически невозможны.

"Мы можем отследить, как на самом деле должно выглядеть и двигаться лицо, а затем нанести это на карту”, - рассказала Decrypt исполнительный директор DeepMedia Эмма Браун. “Мы можем определить, какое движение является нормальным для лица”.

Фотография может быть обработана за пять секунд, в то время как двухминутное видео будет "полностью обработано от начала до конца с подробным анализом лиц, голосов и акцентов” менее чем за пять минут, пояснила она. Затем конечному пользователю будет сообщено, какой объем манипуляций был обнаружен и где это находится на видео или изображении.


"Помните фальшивого Папу, который стал вирусным? Мы смогли проверить, какие части были настоящими, а какие поддельными ", - сказал Браун. "Были определенные вещи, которые никогда не могли произойти в реальной жизни. И это было то, что действительно отличало наши детекторы с точки зрения теней и углов ".

По ее словам, модель способна обнаруживать с точностью "более 95%" благодаря большому объему обучающих данных.

Почему нас это должно волновать?

В своем нынешнем состоянии технология deepfake наиболее известна глупыми пародийными видеороликами, нереалистичными подражаниями президенту и вредной фальшивой порнографией. Однако технология также может быть использована для создания реальной напряженности между государствами, что потенциально может привести к жертвам, террористическим атакам и другим вредным или разрушительным реакциям.

"Подделки Deepfakes могут использоваться как часть информационных операций для влияния на ход войн, таких как инцидент с обнародованием deepfake в марте 2022 года, когда президент Украины Зеленский, казалось, приказал своим войскам сдаваться", - , - говорит она." "Он отрицал подлинность этого видео и предоставил доказательства этого".

В связи с приближением выборов в США в 2024 году технология глубокой подделки является последней проблемой, которая может повлиять на голосование — аналогично скандалу с Cambridge Analytica 2018 года.

"Противники государства или политически мотивированные лица могут публиковать фальсифицированные видеоролики, на которых избранные должностные лица или другие общественные деятели отпускают зажигательные комментарии или ведут себя неподобающим образом", - объяснил Цукерман. "Подобные инциденты подрывают общественное доверие, негативно влияют на общественный дискурс, создают разногласия и могут быть использованы для влияния на выборы или другие важные процессы принятия решений".

Вмешательство также может быть не таким простым. На самом деле, подделки могут использоваться для отрицания реальности и попыток опровергнуть фактическую информацию и события.

"Существует также проблема возможных "дивидендов лжеца" — формы дезинформации, с помощью которой подделки могут использоваться для отрицания подлинности оригинального контента, создавая дальнейшую путаницу в ущерб соображениям безопасности и дискредитируя дружественные США источники и активы, аналитиков, правительства союзников или даже официальных лиц", - сказал Цукерман.

Только за последний год произошла стремительная эволюция технологий и инструментов генеративного искусственного интеллекта. По мере развития технологии подделок, несомненно, становится еще сложнее идентифицировать мошеннические клипы невооруженным глазом.






 
  • Теги
    deepfake дезинформация дипфейки
  • Сверху Снизу