Исследователи используют детекторы сердцебиения для распознавания Deepfake-видео

Лайнуть/Поделиться

Исследователи искусственного интеллекта использовали датчики для регистрации кровяного потока, чтобы распознавать видео, созданные по технологии Deepfake. Этот метод позволяет не только эффективно идентифицировать такие видео, но и успешно определять их генеративные модели. Статья об этом доступна на сайте препринтов arXiv.org.

Что такое Deepfake?

Использование искусственного интеллекта для создания синтетических видео снизило необходимый уровень квалификации для реалистической манипуляции изображениями. Так, технология Deepfake позволяет создавать синтетические портретные видео реальных людей, достаточно фотореалистичные для того, чтобы выдавать их за настоящие. Хотя эта технология создавалась с положительным намерением относительно использования в фильмах, рекламе и развлечениях, ее применяют для создания порнографии и фейков с целью политической дезинформации. Существующие модели выявления фейковых видео сосредотачиваются в основном на традиционных методах криминалистической информации, таких как отслеживание неестественных движений век или искажений на краю лица.

Какой способ предложили ученые?

Биологические сигналы присутствуют у всех людей. Такие анатомические действия, как сердцебиение, кровоток или дыхание создают тонкие изменения, которые можно зафиксировать. Например, когда кровь движется в венах, отражательная способность кожи со временем меняется из-за содержания гемоглобина в крови. Метод фотоплетизмографии способен перевести такие визуальные сигналы в сердцебиение человека, его применяют в сфере здравоохранения. Ученые решили использовать этот метод для борьбы с фейковыми видео, ведь пока ни одна генеративная модель не способна сымитировать движение крови человека.

Исследователи представили искусственный интеллект, который выходит за рамки распознавания фальшивых видео и может даже определять, какая модель их генерирует. Чтобы это сделать, искусственный интеллект ищет биологические сигналы от 32 различных участков на лице человека. В экспериментах с наборами видеофайлов deepfake этот подход выявлял подделку с точностью 97,3% и определял генеративные модели видео с точностью 93,4%.

Сочетание такого метода с уже существующими способами аутентификации видео позволит достичь еще большей точности и надежности.


Поддержать проект

Читайте также: Можно легко создавать фальшивые видео лишь с 1 фотографии лица

Редакция

Опубликовала
Редакция

Недавние публикации

Кортизол в волосах может предсказать риск сердечного приступа

Ежедневное отслеживание здоровья стало простой задачей в наши дни, решаемой фитнес-часами и другими гаджетами. Однако это… Читать далее

17/01/2021

Победители конкурса «Лучшие иллюзии 2020 года»

Оптические иллюзии вводят в заблуждение мозг, раскрывая его необычные механизмы действия. Такие знания ценны для… Читать далее

16/01/2021

Лучшие снимки космоса, сделанные ESO в 2020 году: первое фото другой планетарной системы

Европейская южная обсерватория (ESO) — международная организация, которая занимается исследованием звездного неба. В состав ESO входит… Читать далее

16/01/2021

Первое животное, давшее потомство в космосе — самка таракана “Надежда”

Надежда — самка рыжего таракана, слетавшая в космос на беспилотном космическом аппарате «Фотон М-3» с 14 по… Читать далее

16/01/2021

Обучение делает людей счастливее, независимо от награды

Многие люди считают, что были бы счастливее, если бы у них было больше денег. И такие… Читать далее

08/01/2021

Квантовый интернет, китайское начало

Китайские учёные создали первую в мире интегрированную сеть квантовой связи, объединив более 700 оптических волокон… Читать далее

08/01/2021