Процесс определения подлинности видео. Umur Aybars Ciftci et al / arXiv.org
Исследователи искусственного интеллекта использовали датчики для регистрации кровяного потока, чтобы распознавать видео, созданные по технологии Deepfake. Этот метод позволяет не только эффективно идентифицировать такие видео, но и успешно определять их генеративные модели. Статья об этом доступна на сайте препринтов arXiv.org.
Использование искусственного интеллекта для создания синтетических видео снизило необходимый уровень квалификации для реалистической манипуляции изображениями. Так, технология Deepfake позволяет создавать синтетические портретные видео реальных людей, достаточно фотореалистичные для того, чтобы выдавать их за настоящие. Хотя эта технология создавалась с положительным намерением относительно использования в фильмах, рекламе и развлечениях, ее применяют для создания порнографии и фейков с целью политической дезинформации. Существующие модели выявления фейковых видео сосредотачиваются в основном на традиционных методах криминалистической информации, таких как отслеживание неестественных движений век или искажений на краю лица.
Биологические сигналы присутствуют у всех людей. Такие анатомические действия, как сердцебиение, кровоток или дыхание создают тонкие изменения, которые можно зафиксировать. Например, когда кровь движется в венах, отражательная способность кожи со временем меняется из-за содержания гемоглобина в крови. Метод фотоплетизмографии способен перевести такие визуальные сигналы в сердцебиение человека, его применяют в сфере здравоохранения. Ученые решили использовать этот метод для борьбы с фейковыми видео, ведь пока ни одна генеративная модель не способна сымитировать движение крови человека.
Исследователи представили искусственный интеллект, который выходит за рамки распознавания фальшивых видео и может даже определять, какая модель их генерирует. Чтобы это сделать, искусственный интеллект ищет биологические сигналы от 32 различных участков на лице человека. В экспериментах с наборами видеофайлов deepfake этот подход выявлял подделку с точностью 97,3% и определял генеративные модели видео с точностью 93,4%.
Сочетание такого метода с уже существующими способами аутентификации видео позволит достичь еще большей точности и надежности.
Читайте также: Можно легко создавать фальшивые видео лишь с 1 фотографии лица
Многим знакома ситуация, когда после бессонной ночи вы не чувствуете себя бодрым, как обычно. Мозг… Читать далее
Известно, что некоторые виды кукушек являются паразитами, поскольку не высиживают яйца, а тайно подкладывают их… Читать далее
Комары распространяют многие смертельные заболевания, в том числе малярию, и ученые давно ищут способы лечения… Читать далее
Введение: от эксперимента к корпоративной стратегии За последние годы биткоин перестал быть нишевым активом и… Читать далее
Когда ваша логистическая компания решает, какую tms система купить, вопрос цены встает ребром. Истинная tms… Читать далее
Ученые, которые получили печально известную Шнобелевскую премию 2024 года за «открытие того, что многие млекопитающие… Читать далее