• Алматы, +15 ℃
  • Нур-Султан, +9 ℃
  • Шымкент, +15 ℃
  • Размер текста

Лента новостей

 
   2019
 
Пн
Вт
Ср
Чт
Пт
Сб
Вс
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
Эксперты предупредили об опасности фейковых видео с лицами знаменитостей 6 Августа, 2019, 11:10
437

Эксперты предупредили об опасности фейковых видео с лицами знаменитостей



В интернете появились фейковые видео с наложением лиц и голосов известных людей, с помощью которых мошенники похищают средства, рассказали РИА Новости в компании "Инфосистемы Джет" (работает в сфере системной интеграции, защиты информации).

"Последнее время на просторах интернета появилось относительно новое явление deep fake - это фейковые видео с наложением лиц и голосов известных людей на видео различного содержания с применением технологий Deep Learning (нейронных сетей). Эта технология позволяет заменить движения губ и речь человека на видео. Обычному пользователю довольно сложно определить подобные фейки, и многие принимают такие шутки за чистую монету, что, в свою очередь открывает широкие возможности для разного рода мошенников и провокаторов", - рассказали в компании.

Эксперты компании обнаружили в сети мошенническое видео с использованием образа шоумена Дмитрия Нагиева, где он якобы обещает пользователям ценный приз или денежное вознаграждение – для этого лишь надо перейти на сайт. В результате это ведет к потере денег, отметили в компании. Представитель шоумена сказал РИА Новости, что ему неизвестно о таком роде мошенничества.

Как отметили в "Инфосистемы Джет", при нажатии на ссылку пользователь попадает на портал со сгенерированным именем домена. "Такие сайты обычно перестают отвечать через пару дней, потому что попадают в черные списки мошеннических. Но злоумышленники запускают новые сайты и новую рекламу, поэтому пока сложно судить, сколько именно пострадало пользователей", - отметили в "Инфосистемы Джет".

По словам специалиста по нейронным сетям компании "Инфосистемы Джет" Анны Олейниковой, deep fake является крайне серьезной угрозой.

"Спектр зловредного применения deep fake и подобных технологий очень широк: шантаж, дискредитация медийных персон и политических деятелей, нечестная конкуренция в бизнесе и политике", - сказала она.

"Компании, разрабатывающие и внедряющие системы информационной безопасности, уже довольно давно применяют технологии искусственного интеллекта для противодействия таким угрозам информационной безопасности, как сетевые атаки, спам, вирусы. Но такого рода deep fake — это первые случаи, когда злоумышленники сами вооружились технологиями ИИ. Специалистам по информационной безопасности придется этому противостоять с помощью тех же технологий - придется обучать нейронные сети, чтобы они могли находить и распознавать deep fake в сети", - добавила Олейникова.

В компании отметили, что обычный пользователь может распознать такие фейки по ряду признаков: например, если на видео глаза не моргают, все время открыты или полузакрыты, то, скорее всего, это deep fake; резкое колебания четкости изображения; появление странных шлейфов вокруг контура головы при резких движениях, поворотах, наклонах; колебания освещенности и теней на лице, если положение лица относительно источника света не меняется и ряд других.

Hype news

ОПРОС
  1. Как Вам новый дизайн сайта?*
НОВОСТИ ПАРТНЕРОВ
Загрузка...
Наверх