Эксперты предупредили об опасности фейковых видео с лицами знаменитостей

6 Августа 2019, 11:10
АВТОР
Подпишитесь на наш
Telegram-канал
и узнавайте новости первыми!
Эксперты предупредили об опасности фейковых видео с лицами знаменитостей 6 Августа 2019, 11:10
6 Августа 2019, 11:10
1631
В интернете появились фейковые видео с наложением лиц и голосов известных людей, с помощью которых мошенники похищают средства, рассказали РИА Новости в компании "Инфосистемы Джет" (работает в сфере системной интеграции, защиты информации).

"Последнее время на просторах интернета появилось относительно новое явление deep fake - это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов", - рассказали в компании.

Эксперты компании обнаружили в сети мошенническое видео с использованием образа шоумена Дмитрия Нагиева, где он якобы обещает пользователям ценный приз или денежное вознаграждение – для этого лишь надо перейти на сайт. В результате это ведет к потере денег, отметили в компании. Представитель шоумена сказал РИА Новости, что ему неизвестно о таком роде мошенничества.

Как отметили в "Инфосистемы Джет", при нажатии на ссылку пользователь попадает на портал со сгенерированным именем домена. "Такие сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей", - отметили в "Инфосистемы Джет".

По словам специалиста по нейронным сетям компании "Инфосистемы Джет" Анны Олейниковой, deep fake является крайне серьезной угрозой.

"Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике", - сказала она.

"Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта для противодействия таким угрозам информационной безопасности, как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий - придется обучать нейронные сети, чтобы они могли находить и распознавать deep fake в сети", - добавила Олейникова.

В компании отметили, что обычный пользователь может распознать такие фейки по ряду признаков: например, если на видео глаза не моргают, все время открыты или полузакрыты, то, скорее всего, это deep fake; резкое колебания четкости изображения; появление странных шлейфов вокруг контура головы при резких движениях, поворотах, наклонах; колебания освещенности и теней на лице, если положение лица относительно источника света не меняется и ряд других.
Наверх