Исследователи используют детекторы сердцебиения для распознавания Deepfake-видео

Исследователи искусственного интеллекта использовали датчики для регистрации кровяного потока, чтобы распознавать видео, созданные по технологии Deepfake. Этот метод позволяет не только эффективно идентифицировать такие видео, но и успешно определять их генеративные модели. Статья об этом доступна на сайте препринтов arXiv.org.

Что такое Deepfake?

Использование искусственного интеллекта для создания синтетических видео снизило необходимый уровень квалификации для реалистической манипуляции изображениями. Так, технология Deepfake позволяет создавать синтетические портретные видео реальных людей, достаточно фотореалистичные для того, чтобы выдавать их за настоящие. Хотя эта технология создавалась с положительным намерением относительно использования в фильмах, рекламе и развлечениях, ее применяют для создания порнографии и фейков с целью политической дезинформации. Существующие модели выявления фейковых видео сосредотачиваются в основном на традиционных методах криминалистической информации, таких как отслеживание неестественных движений век или искажений на краю лица.

Какой способ предложили ученые?

Биологические сигналы присутствуют у всех людей. Такие анатомические действия, как сердцебиение, кровоток или дыхание создают тонкие изменения, которые можно зафиксировать. Например, когда кровь движется в венах, отражательная способность кожи со временем меняется из-за содержания гемоглобина в крови. Метод фотоплетизмографии способен перевести такие визуальные сигналы в сердцебиение человека, его применяют в сфере здравоохранения. Ученые решили использовать этот метод для борьбы с фейковыми видео, ведь пока ни одна генеративная модель не способна сымитировать движение крови человека.

Исследователи представили искусственный интеллект, который выходит за рамки распознавания фальшивых видео и может даже определять, какая модель их генерирует. Чтобы это сделать, искусственный интеллект ищет биологические сигналы от 32 различных участков на лице человека. В экспериментах с наборами видеофайлов deepfake этот подход выявлял подделку с точностью 97,3% и определял генеративные модели видео с точностью 93,4%.

Сочетание такого метода с уже существующими способами аутентификации видео позволит достичь еще большей точности и надежности.


Поддержать проект

Читайте также: Можно легко создавать фальшивые видео лишь с 1 фотографии лица