Технологии

Исследователи используют детекторы сердцебиения для распознавания Deepfake-видео

Лайнуть/Поделиться

Исследователи искусственного интеллекта использовали датчики для регистрации кровяного потока, чтобы распознавать видео, созданные по технологии Deepfake. Этот метод позволяет не только эффективно идентифицировать такие видео, но и успешно определять их генеративные модели. Статья об этом доступна на сайте препринтов arXiv.org.

Что такое Deepfake?

Использование искусственного интеллекта для создания синтетических видео снизило необходимый уровень квалификации для реалистической манипуляции изображениями. Так, технология Deepfake позволяет создавать синтетические портретные видео реальных людей, достаточно фотореалистичные для того, чтобы выдавать их за настоящие. Хотя эта технология создавалась с положительным намерением относительно использования в фильмах, рекламе и развлечениях, ее применяют для создания порнографии и фейков с целью политической дезинформации. Существующие модели выявления фейковых видео сосредотачиваются в основном на традиционных методах криминалистической информации, таких как отслеживание неестественных движений век или искажений на краю лица.

Какой способ предложили ученые?

Биологические сигналы присутствуют у всех людей. Такие анатомические действия, как сердцебиение, кровоток или дыхание создают тонкие изменения, которые можно зафиксировать. Например, когда кровь движется в венах, отражательная способность кожи со временем меняется из-за содержания гемоглобина в крови. Метод фотоплетизмографии способен перевести такие визуальные сигналы в сердцебиение человека, его применяют в сфере здравоохранения. Ученые решили использовать этот метод для борьбы с фейковыми видео, ведь пока ни одна генеративная модель не способна сымитировать движение крови человека.

Исследователи представили искусственный интеллект, который выходит за рамки распознавания фальшивых видео и может даже определять, какая модель их генерирует. Чтобы это сделать, искусственный интеллект ищет биологические сигналы от 32 различных участков на лице человека. В экспериментах с наборами видеофайлов deepfake этот подход выявлял подделку с точностью 97,3% и определял генеративные модели видео с точностью 93,4%.

Сочетание такого метода с уже существующими способами аутентификации видео позволит достичь еще большей точности и надежности.


Поддержать проект

Читайте также: Можно легко создавать фальшивые видео лишь с 1 фотографии лица

Редакция

Недавние публикации

Невнимательность при недосыпе возникает из-за очистки мозга, которая должна была произойти во сне

Многим знакома ситуация, когда после бессонной ночи вы не чувствуете себя бодрым, как обычно. Мозг… Читать далее

06/11/2025

Как паразитические кукушки откладывают яйца, похожие на яйца хозяев, оставаясь одним видом

Известно, что некоторые виды кукушек являются паразитами, поскольку не высиживают яйца, а тайно подкладывают их… Читать далее

01/11/2025

Ученые создали гриб, уничтожающий комаров

Комары распространяют многие смертельные заболевания, в том числе малярию, и ученые давно ищут способы лечения… Читать далее

31/10/2025

Как публичные компании используют биткоин для роста акционерной стоимости

Введение: от эксперимента к корпоративной стратегии За последние годы биткоин перестал быть нишевым активом и… Читать далее

31/10/2025

Расшифровка ценовых моделей: Подписка против локальной (On-Premise) TMS системы

Когда ваша логистическая компания решает, какую tms система купить, вопрос цены встает ребром. Истинная tms… Читать далее

30/10/2025

Лауреаты Шнобелевской премии, открывшие “дыхание задницей”, тестируют его на людях

Ученые, которые получили печально известную Шнобелевскую премию 2024 года за «открытие того, что многие млекопитающие… Читать далее

25/10/2025