ПЯТНИЦА, 05 ДЕКАБРЯUSD: 76.97EUR: 89.9
👍 1.2K💬 1.5K★ 1.3K

Создатели дипфейков научились обходить методы обнаружения

© Freepik

Новый искусственный интеллект способен создавать убедительные фейковые видео, подделывая кровоток.

Как сообщила группа из Института телекоммуникаций Фраунгофера в Германии, хакеры научились создавать дипфейки, которые достоверно воспроизводят пульс человека и тем самым обманывают детекторы. Таким образом можно подделать видео со знаменитостями или политиками, а затем осуществить финансовое мошенничество или даже распространение политической пропаганды.

Исследователи пояснили, что современный детектор дипфейков способен анализировать пульс людей в видеороликах, чтобы выявлять фальшивые записи. Это связано с тем, что в реальных видеороликах есть тонкое отличие, которое неочевидно для зрителя: это изменение цвета лица в зависимости от сердцебиения, а также окраски вен на руках. Подразумевается, что дипфейк не способен передать эти тонкости, на чём его и ловит детектор.

Ранее считалось, что фальшивое видео не может воспроизвести признаки кровотока: изменение вен и цвета кожи.
Ранее считалось, что фальшивое видео не может воспроизвести признаки кровотока: изменение вен и цвета кожи.© Freepik

Однако новый генеративный искусственный интеллект научился создавать убедительные фейковые видео, подделывая кровоток и частоту сердечных сокращений у фальшивого человека. Учёные установили это во время эксперимента, в рамках которого они вставили цифровые изменённые лица в подлинные видеоролики — шаг, который должен был насторожить их детектор дипфейков.

Однако вместо этого детектор воспринял пульс реалистичным как в поддельных, так и в оригинальных видео. То, что один из генераторов дипфейков способен убедительно имитировать сердцебиение и другие физиологические сигналы, безусловно настораживает. Поэтому теперь группа пытается выявить более тонкие различия между подлинными и поддельными видео, чтобы разработать более мощный детектор.


<