Как сообщила группа из Института телекоммуникаций Фраунгофера в Германии, хакеры научились создавать дипфейки, которые достоверно воспроизводят пульс человека и тем самым обманывают детекторы. Таким образом можно подделать видео со знаменитостями или политиками, а затем осуществить финансовое мошенничество или даже распространение политической пропаганды.
Исследователи пояснили, что современный детектор дипфейков способен анализировать пульс людей в видеороликах, чтобы выявлять фальшивые записи. Это связано с тем, что в реальных видеороликах есть тонкое отличие, которое неочевидно для зрителя: это изменение цвета лица в зависимости от сердцебиения, а также окраски вен на руках. Подразумевается, что дипфейк не способен передать эти тонкости, на чём его и ловит детектор.

Однако новый генеративный искусственный интеллект научился создавать убедительные фейковые видео, подделывая кровоток и частоту сердечных сокращений у фальшивого человека. Учёные установили это во время эксперимента, в рамках которого они вставили цифровые изменённые лица в подлинные видеоролики — шаг, который должен был насторожить их детектор дипфейков.
Однако вместо этого детектор воспринял пульс реалистичным как в поддельных, так и в оригинальных видео. То, что один из генераторов дипфейков способен убедительно имитировать сердцебиение и другие физиологические сигналы, безусловно настораживает. Поэтому теперь группа пытается выявить более тонкие различия между подлинными и поддельными видео, чтобы разработать более мощный детектор.

