Исследователи используют детекторы сердцебиения для распознавания Deepfake-видео

Лайнуть/Поделиться

Исследователи искусственного интеллекта использовали датчики для регистрации кровяного потока, чтобы распознавать видео, созданные по технологии Deepfake. Этот метод позволяет не только эффективно идентифицировать такие видео, но и успешно определять их генеративные модели. Статья об этом доступна на сайте препринтов arXiv.org.

Что такое Deepfake?

Использование искусственного интеллекта для создания синтетических видео снизило необходимый уровень квалификации для реалистической манипуляции изображениями. Так, технология Deepfake позволяет создавать синтетические портретные видео реальных людей, достаточно фотореалистичные для того, чтобы выдавать их за настоящие. Хотя эта технология создавалась с положительным намерением относительно использования в фильмах, рекламе и развлечениях, ее применяют для создания порнографии и фейков с целью политической дезинформации. Существующие модели выявления фейковых видео сосредотачиваются в основном на традиционных методах криминалистической информации, таких как отслеживание неестественных движений век или искажений на краю лица.

Какой способ предложили ученые?

Биологические сигналы присутствуют у всех людей. Такие анатомические действия, как сердцебиение, кровоток или дыхание создают тонкие изменения, которые можно зафиксировать. Например, когда кровь движется в венах, отражательная способность кожи со временем меняется из-за содержания гемоглобина в крови. Метод фотоплетизмографии способен перевести такие визуальные сигналы в сердцебиение человека, его применяют в сфере здравоохранения. Ученые решили использовать этот метод для борьбы с фейковыми видео, ведь пока ни одна генеративная модель не способна сымитировать движение крови человека.

Исследователи представили искусственный интеллект, который выходит за рамки распознавания фальшивых видео и может даже определять, какая модель их генерирует. Чтобы это сделать, искусственный интеллект ищет биологические сигналы от 32 различных участков на лице человека. В экспериментах с наборами видеофайлов deepfake этот подход выявлял подделку с точностью 97,3% и определял генеративные модели видео с точностью 93,4%.

Сочетание такого метода с уже существующими способами аутентификации видео позволит достичь еще большей точности и надежности.


Поддержать проект

Читайте также: Можно легко создавать фальшивые видео лишь с 1 фотографии лица

Редакция

Опубликовала
Редакция

Недавние публикации

Инструмент AI отслеживает время, которое политики проводят в своих телефонах

Этот удобный инструмент использует машинное обучение и распознавание лиц для измерения. Разработчик из Бельгии, Дрис… Читать далее

08/07/2021

Псилоцибин увеличивает число нейронных связей на 10%

Псилоцибин вызывает быстрый и стойкий рост дендритных шипов в лобной коре in vivo. Структурное ремоделирование, вызванное… Читать далее

07/07/2021

Женщины не пожалели о сделанном аборте годы спустя

В течение пяти лет после сделанного аборта большинство женщин не жалеют о своем решении —… Читать далее

04/07/2021

Отбор эмбрионов, направленный на обеспечение интеллекта детей. Реальная услуга с сомнительными результатами

В специальном отчете, опубликованном в New England Journal of Medicine, возникают серьезные вопросы о преимуществах, рисках и… Читать далее

03/07/2021

CRISPR, введенный в кровь, впервые лечит генетическое заболевание

Редактор генов CRISPR отлично справляется с фиксацией болезненных мутаций в выращенных в лаборатории клетках. Но использование… Читать далее

27/06/2021

Микробные фермы на солнечных батареях, как альтернативный источник белка

Ученые обнаружили, что микробы могут производить в 10 раз больше пищи, чем растения. Идея исследователей… Читать далее

27/06/2021